Prévia do material em texto
PIERGIORGIO ODIFREDDI LAMATEMÁTICA DEL SIGLO XX DE LOS CONJUNTOS A LA COMPLEJIDAD II PIERGIORGIO ODIFREDDI (Cuneo, Italia, 1950) Estudió matemática en Italia, Estados Unidos y la ex Unión Soviética. Enseña lógica en las univer- sidades de Turín y de Cornell. En 1988 recibió el premio Galileo de la Unión Matemática Italiana. Ha trabajado sobre problemas de lógica intuicio- nista. Actualmente, su campo de investigación es la teoría de la recursividad. Primera Edición, 2006 Traducido por Idiarte, Cecilia Prólogo de Gian Carlo Rota Título de la edición original: La matematica del Novecento. Dagli insiemi alla complessità Turín, 2000 La Matemática del siglo XX III A Laura que me libera del tiempo y el espacio y me da la alegría y la paz que me han sido negadas por el Número y el Punto. IV Índice general 1. Prólogo de Gian Carlo Rota 1 2. Agradecimientos 7 3. Introducción 9 4. Fundamentos 17 4.1. Década de 1920: Los Conjuntos . . . . . . . . . . . . . . . . . . . 19 4.2. Década de 1940: Las Estructuras . . . . . . . . . . . . . . . . . . . 23 4.3. Década de 1960: Las Categorías . . . . . . . . . . . . . . . . . . . 27 4.4. Década de 1980: El Lambda Cálculo . . . . . . . . . . . . . . . . . 31 5. Matemática Pura 37 5.1. Análisis: La medida de Lebegue (1902) . . . . . . . . . . . . . . . . 41 5.2. Álgebra: La Clasificación de los campos de Steinitz (1910) . . . . . . . . 46 5.3. Topología: El Teorema del Punto Fijo de Brouwer (1910) . . . . . . . . 49 5.4. Teoría de Números: Los Números Trascendentes de Gelfond (1929) . . . . 52 V VI ÍNDICE GENERAL 5.5. Lógica: El Teorema de Incompletitud de Gödel (1931) . . . . . . . . . . 56 5.6. Calculo Variacional: Las superficies minimales de Douglas (1931) . . . . 60 5.7. Análisis: Las distribuciones de Schwartz (1945) . . . . . . . . . . . . 65 5.8. Topología Diferencial: Las estructuras exóticas de Milnor (1956) . . . . . 69 5.9. Teoría de los Modelos: Los Números Hiperreales de Robinson (1961) . . . 73 5.10. Teoría de Conjuntos: El Teorema de Independencia de Cohen (1963) . . . 77 5.11. Teoría de Singularidades: La Clasificación de las Catástrofes de Thom (1964) 80 5.12. Álgebra: La Clasificación de los Grupos Finitos de Gorenstein (1972) . . . 86 5.13. Topología: La Clasificac. de las Superf. Tridimensionales de Thurston (1982) 92 5.14. Teoría de Números: La demost. de Wiles del Últ. Teorema de Fermat (1995) 97 5.15. Geometría Discreta: La solución de Hales al Problema de Kepler (1998) . . 103 6. Matemática Aplicada 109 6.1. Cristalografía: Los Grupos de Simetría de Bieberback (1910) . . . . . . . 115 6.2. Cálculo Tensorial: La relatividad general de Einstein (1915) . . . . . . . 122 6.3. Teoría de Juegos: El Teorema Minimax de Von Neumann (1928) . . . . . 126 6.4. Análisis Funcional: La Axiomat. de la Mec. Cuántica de V. Neumann (1932) 129 6.5. Teoría de la Probabilidad: La Axiomatización de Kolmogorov (1933) . . . 134 6.6. Teoría de la Optimización: El Método del Simplex de Dantzig (1947) . . . 138 6.7. Teoría del Equilibrio Gral.: El Th. de Existencia de Arrow y Debreu (1954) . 141 6.8. Teoría los lenguajes formales: La clasificación de Chomsky (1957) . . . . 144 6.9. Teoría de los Sistemas Dinámicos: El Teorema Kam (1962) . . . . . . . . 148 6.10. Teoría de los Nudos: Los Invariantes de Jones (1984) . . . . . . . . . . 152 La Matemática del siglo XX VII 7. La Matemática y el Ordenador 159 7.1. Teoría de Algoritmos: La Caracterización de Turing (1936) . . . . . . . . 165 7.2. Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950) . . . . . 169 7.3. Teoría del Caos: El Atractor extraño de Lorenz (1963) . . . . . . . . . . 172 7.4. Demostraciones asistidas: El Th. de los 4 Colores de Appel y Haken (1976) . 175 7.5. Fractales: El conjunto de Mandelbrot (1980) . . . . . . . . . . . . . . 181 8. Problemas irresueltos 187 8.1. Aritmética: El Problema de los Números Perfectos (300 a.C.) . . . . . . . 189 8.2. Análisis complejo: La Hipótesis de Riemann (1859) . . . . . . . . . . . 191 8.3. Topología Algebraica: La Conjetura de Poincaré (1904) . . . . . . . . . 195 8.4. Teoría de la Complejidad: El Problema P = NP (1972) . . . . . . . . . 198 9. Conclusión 205 10. Bibliografía 211 11. Índice de nombres 215 VIII ÍNDICE GENERAL 1 Prólogo A finales del segundo milenio, la vida de la matemática corre se- rios peligros. Entre las múltiples amenazas a su supervivencia, las más inminentes me parecen la crasa ignorancia de sus resultados y la frecuente hostilidad hacia sus exponentes. Ambas se ven favoreci- das por la insistencia de los matemáticos en permanecer en los estre- chos límites de la propia disciplina, y por su ineptitud para traducir su contenido esotérico en eslóganes exotéricos, como debería ser en la era de los medios masivos de comunicación y de las relaciones públicas. Si no se toman inmediatamente drásticas medidas, la ma- temática corre el riesgo de convertirse pronto en una curiosidad, una de las especies intelectuales en vías de extinción -junto a los otros clásicos, desde la poesía hasta la música, o desde la pintura al teatro- que nuestros hijos visitarán en el zoológico. Sin embargo, está claro (y puedo demostrarlo con rigor) que la civilización occidental de la que estamos tan orgullosos sobrevivirá o morirá junto con sumatemática. La matemática es, siempre ha sido y siempre será la cúspide de nuestra civilización, y cualquiera que adhiera a los ideales que se nos transmitieron desde los hebreos y los 1 2 1. Prólogo de Gian Carlo Rota griegos, a través del Renacimiento y la Revolución Científica, debe estar listo para enrolarse entre sus defensores. El campo de batalla es vasto y el plan de lucha debe ser concebi- do por nuestros mejores estrategas. Afortunadamente, contamos con algunos entre los matemáticos, no obstante el desdén esnob con el que los miran la mayoría de sus colegas (los físicos y los químicos, en cambio, aprendieron hace mucho tiempo a comportarse de otra manera, y miman y recompensan inmensamente a sus estrategas). Aprovecho esta oportunidad que me brinda mi amigo Odifreddi para detenerme en una pequeña zona de este campo de batalla. La- mentablemente, no estoy capacitado para ofrecer sugerencias cons- tructivas, pero al menos puedo señalar algunas grotescasmalas inter- pretaciones, que conducen a los falsos defensores de la matemática a tropezar con sus propios pies. Mi consejo es evitar cuidadosamente la repetición de los siguientes desaciertos. • La matemática es divertida Aprender matemática es divertido sólo para quienes la aman, es decir, para una insignificante minoría de las personas ins- truidas. Para la gran mayoría, en cambio, aprender matemá- tica es una actividad pesada, difícil y artificial, que casi todos preferirían evitar. Ciertamente, no se ayuda a la propia causa acuñando un eslogan basado en una patraña tan descarada. • La matemática es maravillosa También aquí, la belleza de la matemática brilla sólo a los ojos de quien la hace. Lamentablemente, la enseñanza de la mate- mática ha caído hoy a niveles de incompetencia francamente impensables para unmundo tecnológico. Poquísimosmaestros saben comunicar la belleza de la matemática a sus estudian- tes, y muchos de los que podrían prefieren, comprensiblemen- La Matemática del siglo XX 3 te, dedicarse a actividades menos frustrantes que la enseñanza. Mejor dejar caer también este eslogan. • La matemática tiene muchas aplicaciones Aunque pueda parecer tonto, los matemáticos generalmente concluyen la discusión de cualquier resultado con la frase: “Y el teorema tiene muchas aplicaciones útiles”, pero nunca espe- cifican cuáles. Querer especificarlo, entonces, sería peor aun. Esforzarse por encontrar aplicaciones a toda costa conduce en efecto a la invención de ejemplos innaturales y poco convin- centes, que se merecen el desalentador y desafiante: “¿Y en- tonces?”. Ciertamente, algunos resultados matemáticos tienen aplicaciones inmediatas, pero también en estoscasos es mejor mantenerse lejos de los detalles, como el secretario florentino aconsejaba al Príncipe. Nunca se puede saber si el público mos- trará interés, ni cuánto, hacia las falsas maravillas tecnológicas que se le propinan. Conviene limitarse a generalidades obvias, que son más adecuadas para impresionar a los desprevenidos. Por ejemplo: “Sin lógica matemática no existirían los ordenado- res” o “Sin el análisis funcional no existiría la bomba atómica”. Si sólo encontráramos una docena de eslóganes de este tipo pa- ra taparle la boca a cierta gente, la matemática podría emular a la química en las relaciones públicas y competir con ella en las subvenciones. • La matemática es un sustituto de los clásicos Pertenezco a la última generación a la que se le hizo creer que saber leer latín y griego era un requisito indispensable para quien quisiera obtener la calificación de gentleman. Prefiero ahorrar las decrépitas banalidades que se esgrimían como justi- ficación para la enseñanza de las lenguas muertas. Las mismas banalidades se reciclan hoy para pedir mayor número de horas 4 1. Prólogo de Gian Carlo Rota semanales de matemática en las escuelas secundarias; proyec- to loable, por cierto, pero difícilmente realizable apelando a los clásicos. Debo confesar que yo mismo he creído en la analogía entre ma- temática y clásicos, y que la he predicado a mis alumnos. Hasta que un día uno de ellos me arrojó demanera irreverente un “¡Al diablo los clásicos!” que me hizo recobrar instantáneamente el sentido. De todos modos hay, obviamente, un toque de verdad en la comparación, y es menester separarlo de las burlas. En la vieja Inglaterra ningún buen estudiante de Oxford o Cam- bridge podía aspirar a servir a Su Majestad, aunque fuera en la colonia más alejada, si no era capaz de recitar al pie de la le- tra miles de versos de Virgilio, o decenas de odas de Píndaro. ¡Los países civilizados se empeñaban en elegir a sus gobernan- tes basándose sólo en su conocimiento de los clásicos! Hoy esta ocurriendo algo parecido con la matemática. Cual- quier que trabaje en áreas tecnológicas sabe que las especu- laciones envejecen precoz y continuamente. Un sólido back- ground de purísima matemática es el mejor seguro contra la obsolescencia. Ni siquiera la matemática “aplicada” basta para este fin, por obvias razones de circularidad. • La matemática es como la música Me gustaría creer esta afirmación. Pero hay que constatar que hay muchos más estudiantes de música que de matemática, aunque la probabilidad de morir de hambre o de ser un de- socupado sea mucho más alta entre los músicos que entre los matemáticos. Por lo tanto, debe haber una diferencia entre las dos profesiones. • La matemática es una profesión tranquila Muchas personas que no se dedican a este trabajo conservan La Matemática del siglo XX 5 una imagen falsa de la vida del matemático, según la cual el profesor de matemática enseña algunas horitas por semana y dedica el resto del tiempo a placenteros pasatiempos, desde la jardinería hasta el ajedrez. Nada podría estar más alejado de la realidad, y lo estará mas aun en el futuro. La competitividad en la investigación matemática está llegando a niveles de olimpia- das, y quien se dedique menos de dieciocho horas al día a la investigación terminará en una pizzería. ¡Pero detrás del mos- trador, no sentado a las mesas! • La matemática es la reina de las ciencias De esto, en cambio, estoy completamente convencido. Por des- gracia, los matrimonios se forman entre dos personas. El eslo- gan sería creíble sólo si los otros científicos estuvieran de acuer- do, algo que a ellos ni se les pasa por la cabeza. Por el contrario, todos intentan acaparar la enseñanza de la matemática, desde los ingenieros hasta los físicos, desde los químicos hasta los bió- logos, y los matemáticos se van de paseo. ¿Cuándo vamos a re- cuperar un poco de respeto, por no hablar de algún puesto de trabajo? Afortunadamente, contra todo pronóstico pesimista, de vez en cuando ocurren cosas buenas. Una de ellas es este libro de Odifre- ddi. Su estrategia es inteligente: simplemente presenta los resultados de la matemática como son, limitando al mínimo el lenguaje técni- co, pero con suficiente información como para permitir al lector que pueda hacerse una buena idea tanto de los problemas importantes, como de sus soluciones. Pocas veces una historia tan completa fue presentada con tal claridad. Aquí no hay esfuerzos por “vender” la matemática. Que un re- 6 1. Prólogo de Gian Carlo Rota sultado sea útil o no, incessu pateti1 el lector terminará por concluir, exultante, al final de alguna espléndida explicación sobre las superfi- cies mínimas o sobre los polinomios de Jones, que tarde o temprano tales resultados encontrarán aplicaciones útiles. Conducido por la hábil retórica del autor, el lector que llegue a esta conclusión auscultará el ritmo cardíaco de la matemática y aprenderá la lección esencial: que los mejores resultados son siem- pre, inevitablemente, los que encuentran aplicaciones revoluciona- rias. Y es justamente a éstas que se debe el progreso, o mejor dicho el Progreso y el mejoramiento de nuestro mundo. Cualquiera que ame la matemática debe estar agradecido a Odi- freddi por haber presentado, con éxito, su lado más fuerte. Gian Carlo Rota Turín, 7 de junio de 1998 1“Se ve en el andar”, en referencia a la sentencia de Virgilio “vera incessu patuit dea”. [N. de la T.] 2 Agradecimientos Agradezco a John Hubbard y Peter Kahn por la inspiración ini- cial, y a Claudio Bartocci, Cinzia Bonotto, Umberto Bottazzini, Lione- llo Cantoni, Alberto Collino, Vittorio De Alfaro, Simonetta Di Sieno, Michele Emmer, Livia Giacardi, Gabriele Lolli, CristinaMataloni, An- drea Moro, Alessandro Panconesi, Tullio Regge y Paolo Valabrega por la ayuda intermedia y la corrección final. 7 8 2. Agradecimientos 3 Introducción El mundo descrito por las ciencias físicas y naturales es concreto y perceptible: en una primera aproximación a través de los sentidos, y en una segunda aproximación a través de varias extensiones de los sentidos provistas por la tecnología. El mundo descripto por la ma- temática, en cambio, es un mundo abstracto, constituido por ideas que pueden percibirse sólo con el ojo de la mente. De todos modos, con la práctica, conceptos abstractos como números y puntos han ad- quirido tal objetividad que incluso el hombre común puede obtener imágenes sustancialmente concretas de ellos, como si pertenecieran a un mundo de objetos tan reales como los físicos. Pero la ciencia moderna ha minado la ingenua visión del mundo exterior; la investigación extendió sus fronteras a las inmensas mag- nitudes del cosmos y a las minúsculas de las partículas, haciendo imposible una percepción sensorial directa, o incluso sólo a través de medios tecnológicos, de los objetos galácticos o atómicos, reducién- dolos efectivamente a imágenes matemáticas. De manera análoga, también la matemática moderna extendió las fronteras de su investi- gación a las raras abstracciones de las estructuras y a los minuciosos 9 10 3. Introducción análisis de los fundamentos, desvinculándose por completo de la vi- sualización. Por lo tanto, la ciencia y la matemática del siglo XX comparten la dificultad de explicar sus conquistas en términos de conceptos clási- cos. Pero dificultad no significa imposibilidad; y son precisamente las abstracciones superficiales y estériles las que generalmente resultan difíciles de justificar, mientras que las profundas y fecundas ahondan sus raíces en problemas e intuiciones concretas. En otras palabras, la buena abstracción no es un fin en sí mismo, un arte por el arte, sino que siempre es una necesidad, un arte por el hombre. Una segunda dificultad cuando se afronta la ciencia y la matemá- tica del siglo XX es la explosión productiva. Los matemáticos, que solían conformar un pequeño grupito que a menudo debía hacer cualquier trabajo para sobrevivir, hoy se han convertido en una le- gión. Se mantienen produciendoinvestigaciones que, generalmente, no tienen ni justificación ni interés, y la estructura universitaria en que la mayoría de ellos trabaja los incita estúpidamente a “publicar o perecer”, según un triste lema estadounidense. El resultado es que hoy están circulando centenares de revistas especializadas, en las que aparecen cada año, literalmente, centenares de miles de teoremas, la mayoría irrelevantes. Una tercera dificultad es provocada por la fragmentación que la matemática sufrió a partir del siglo XVIII, y que se hizo patológica en el siglo XX. Una de las causas es la explosión productiva, pero no es la única; otra, quizás más determinante, es el progreso mismo de la investigación. En efecto, los problemas simples y de fácil resolución son escasos, y una vez que se resuelven, una disciplina puede ser desarrollada sólo afrontando problemas complicados y difíciles, que requieren el desarrollo de técnicas específicas y, por lo tanto, una es- pecialización. El siglo XX ha testimoniado una hiperespecialización La Matemática del siglo XX 11 de la matemática, que terminó por dividirla en subdisciplinas con fronteras cada vez más angostas y delimitadas. Lamayoría de estas subdisciplinas están constituidas por ramitas atrofiadas y resecas, que se desarrollan limitadamente en el tiempo y el espacio, y luego mueren de muerte natural. Pero las ramas sanas y fuertes siguen siendo muchas, y su desarrollo ha provocado una situación inédita en la historia de la matemática: la extinción de la especie del matemático universal, es decir, el individuo de excepcio- nal cultura que podía dominar completamente el panorama entero de la matemática de su tiempo. El último ejemplar parece haber sido John von Neumann, fallecido en 1957. Por todas estas razones, no es físicamente posible, ni es de esperar intelectualmente, brindar un panorama completo de la actividad de una disciplina que claramente ha asumido las características típicas de la sociedad industrial dominante, en la que la superproducción de mercancías de baja factura y a bajo costo generalmente marcha por inercia, segúnmecanismos contaminantes y saturantes, nocivos para el ambiente y para el consumidor. El problema principal de cualquier exposición de la matemática del siglo XX es entonces, como en la parábola del Evangelio, separar el grano bueno de la paja, quemar la paja en gavillas y acumular el grano en graneros. Los criterios que pueden guiar una selección de resultados son múltiples, y no unívocos: el interés histórico del pro- blema, la naturaleza germinal o conclusiva de un resultado, la belleza intrínseca de la formulación o de las técnicas, la novedad o la dificul- tad de la demostración, la fertilidad matemática o la utilidad práctica de las aplicaciones, la pregnancia filosófica de las consecuencias, et- cétera. La decisión que proponemos al lector, naturalmente, no puede no ser subjetiva, tanto en sentido negativo como positivo. Por una parte, 12 3. Introducción se debe dar dentro de un bagaje personal de conocimientos que evi- dentemente y de manera inexorable es limitado desde un punto de vista general. Por otra parte, dentro de este bagaje, realiza una selec- ción inevitablemente regida por preferencias y gustos particulares. De todos modos, los aspectos subjetivos pueden limitarse al mí- nimo, intentando hacer referencia a criterios que de alguna manera resulten objetivos. En este caso, la tarea está facilitada por dos fac- tores complementarios, que marcaron el desarrollo de la matemática en el siglo XX. Ambos están vinculados, como explicaremos, con los Congresos Internacionales de la Matemática; como las olimpiadas, éstos se desarrollan cada cuatro años, y están invitados a presentar sus trabajos aquellos a los que la comunidad de matemáticos consi- dera sus mejores exponentes. El primer Congreso oficial se llevó a cabo en 1897 en Zurich y la apertura estuvo a cargo de Henri Poincaré, que la dedicó a las rela- ciones entre matemática y física. El segundo Congreso se realizó en París en 1900 y en esta oportunidad la apertura fue asignada a David Hilbert. El factor numerológico se impuso a su deseo de responder a distancia al discurso de Poincaré, y Hilbert eligió “indicar probables direcciones de la matemática del nuevo siglo”. En su inspirado discurso brindó, ante todo, implícitas indicacio- nes que nos guiarán en nuestra exposición: los resultados importan- tes son aquellos que manifiestan una continuidad histórica con el pasado, que unifican distintos aspectos de la matemática, que arro- jan luz nueva sobre cosas conocidas, que introducen simplificaciones radicales, que no son manipuladamente complicados, que admiten ejemplificaciones significativas, que están suficientemente madura- dos como para poder ser explicados al hombre de la calle, etcétera. Pero el discurso de Hilbert se hizo famoso principalmente por la explícita indicación de veintitrés problemas abiertos, que él conside- La Matemática del siglo XX 13 raba cruciales para el desarrollo de la matemática del siglo. Confir- mando su lúcida anticipación, muchos de esos problemas resultaron efectivamente fecundos y estimulantes, sobre todo en la primera mi- tad del siglo, y enseguida nos detendremos en algunos. En la segun- da mitad del siglo, el impulso de los problemas de Hilbert se apagó y la matemática incursionó en caminos que a principios de siglo ni siquiera existían. Para orientarse en este período es útil hacer referencia a un pre- mio instituido en 1936, que se concede en los Congresos Internacio- nales a matemáticos menores de cuarenta años que hayan obtenido en los últimos años los resultados más destacados. La restricción eta- ria no es especialmente importante, dado que la mayor parte de los resultados significativos se obtienen a esa edad. Como una vez dijo Godfrey Hardy, en Apología de un matemático: “Ningún matemático puede permitirse olvidar que la matemática, más que cualquier otra arte o ciencia, es una actividad para jóvenes”. El premio, dedicado a la memoria de John Charles Fields -un matemático que había sido su organizador y que había obtenido la financiación- consiste en una medalla que muestra la imagen de Ar- químedes y la frase Transiré suum pectus mundoque potiri [trascender las limitaciones humanas y apoderarse del universo] (Figura 1). Por eso, el premio hoy se llama medalla Fields. Figura 1. La medalla Fields 14 3. Introducción Se lo considera el análogo del premio Nobel que para la matemá- tica no existe. Pero sí existe una leyenda muy conocida según la cual la causa de esta inexistencia habría sido el deseo de Alfred Nobel de evitar la posibilidad de que el matemático sueco GöstaMittag-Leffler lo ganara. En realidad, ellos casi no se conocían, y ciertamente el se- gundo no era el amante de la esposa del primero, como suele sugerir- se, ya que Nobel no era casado. El verdadero motivo es simplemente que los cinco premios originales (física, química, medicina, literatura y paz) estaban dedicados a temas que le habían interesado a Nobel toda su vida, y la matemática no se contaba entre ellos. Hasta ahora se han entregado 42 medallas Fields, dos de ellas en 1936, y las restantes entre 1950 y 1998. Ya que la lista de los ganadores incluye a algunos de los mejores matemáticos de la segunda mitad del siglo y que los resultados premiados constituyen algunas de las cimas alcanzadas por la matemática en aquel período, volveremos a menudo sobre este tema. Complementario de la medalla Fields es el premio Wolf, una espe- cie de Oscar a la carrera, instituido en 1978 por Ricardo Wolf, filán- tropo cubano de origen alemán que fue embajador en Israel desde 1961 hasta 1973. Como los premios Nobel, los premiosWolf no tienen limitaciones de edad, se asignan en varios campos (física, química, medicina, agricultura, matemática y arte), son entregados por el jefe de Estado en la capital (el rey de Suecia en Estocolmo en un caso, el presidente de Israel en Jerusalén en el otro) e incluyen un sustancioso cheque (de 100.000 dólares, contralos 10.000 de la medalla Fields y el millón del premio Nobel). Para evitar malentendidos, cabe aclarar explícitamente que las so- luciones de los problemas de Hilbert y los resultados de las medallas Fields o de los premios Wolf representan sólo puntos de referencia significativos y, obviamente, no agotan el panorama de la matemáti- La Matemática del siglo XX 15 ca del siglo XX. Por eso, también será necesario ir más allá de los pre- mios para intentar dar una descripción lo más amplia posible, con las limitaciones que ya mencionamos, de la variedad y la profundidad de la matemática contemporánea. La decisión de concentrarse en grandes resultados que, por otra parte, constituyen la esencia de la matemática determina automática- mente la naturaleza diacrónica de la exposición, que inevitablemente tomará la forma de un collage. La ventaja es que permite una lectu- ra ampliamente independiente de cada sección; y la desventaja, que resulta confusa. Pero esta desventaja podrá ser superada fácilmente con una segunda lectura, tras la cual se podrá volver a las distintas secciones con una visión global. 16 3. Introducción 4 Fundamentos La matemática puede ser considerada, según la propia predispo- sición filosófica o la propia experiencia personal, como una actividad de descubrimiento o de invención. En el primer caso, los conceptos abstractos de los que trata la matemática se consideran dotados de una auténtica existencia en el mundo de las ideas, que es considerado tan real como el mundo físi- co de los objetos concretos. Por lo tanto, el descubrimiento requiere, literalmente, un sexto sentido, que permita percibir los objetos abs- tractos del mismo modo en que los cinco sentidos permiten percibir los objetos concretos. Y el problema fundamental de esta percepción es, obviamente, su verdad externa, es decir, una adecuada correspon- dencia con la supuesta realidad. En el segundo caso, en cambio, las obras matemáticas se conciben como obras de arte, que tratan de objetos tan imaginarios como los protagonistas de una novela o las representaciones de una pintura. Por lo tanto, la invención requiere un auténtico talento matemático, que permita construir objetos de fantasía como lo hace el talento ar- 17 18 4. Fundamentos tístico. El problema fundamental de las producciones de este talen- to es su consistencia interna, es decir, la concepción de las distintas partes como un todo orgánico (en términos matemáticos: la falta de contradicciones). Pero ya sea descubrimiento o invención, la matemática revela ob- jetos y conceptos que, a primera vista, resultan inusuales o poco fa- miliares. Actualmente, ciertos adjetivos demuestran las reacciones de sorpresa o desagrado que suscitaron algunos números en su prime- ra aparición: irracionales, negativos, sordos, imaginarios, complejos, trascendentes, ideales, surreales, etcétera. Desde los tiempos de los griegos, una actitud típica fue el intento por limitar lo máximo que fuera posible la sorpresa o el desagrado, descargando el peso del edificio de la matemática en fundamentos sólidos. La historia de la matemática testimonió sucesivas fases de construcción y desconstrucción, que invertían las relaciones recípro- cas entre lo que se consideraba fundamental y sustituían cimientos peligrosos o superados por otros que se consideraban más adecua- dos. En el siglo VI a.C. los pitagóricos colocaron la aritmética de los números enteros y racionales en la base de la matemática. La grieta que hizo desmoronar el edificio fue el descubrimiento demagnitudes geométricas que no se pueden expresar como relaciones entre núme- ros enteros, lo que demostró que los números racionales no son una base adecuada para la geometría. En el siglo III a.C. todo el edificio fue reconstruido por Euclides sobre los cimientos de la geometría. Los números enteros y sus opera- ciones perdieron el rol de entidades primitivas y fueron reducidos a las medidas de segmentos y de sus combinaciones: por ejemplo, los productos a la medida del área de un rectángulo. La Matemática del siglo XX 19 En el siglo XVII, Descartes inauguró un nuevo paradigma numé- rico, basado en lo que hoy llamamos análisis, es decir, en los números reales. La geometría se volvió analítica, y puntos y entidades geo- métricas se redujeron a coordenadas y ecuaciones: por ejemplo, las rectas a las ecuaciones de primer grado. En el siglo XIX se cerró el círculo, y el análisis rae reducido a la aritmética. Los números reales fueron definidos como conjuntos de sus aproximaciones racionales, y la novedad esencial que permitió a los modernos esta transformación fue la consideración actual de infinito, que los griegos, en cambio, rechazaban. Retomaremosmás adelante todos estos fundamentos clásicos. Pe- ro el proceso de construcción y desconstrucción no se detuvo aquí. Por el contrario, justamente en el siglo XX surgieron muchas alterna- tivas que han disputado los favores de los matemáticos, y que hoy permiten considerar este siglo como un auténtico período de renova- ción de cimientos. La característica esencial de los nuevos fundamen- tos es que se basan, ya no en los objetos clásicos de la matemática, es decir en entes numéricos o geométricos, sino en conceptos absoluta- mente nuevos, que cambiaron completamente su identidad formal y sustancial. 4.1. Década de 1920: Los Conjuntos Cuando nos referimos a la base aritmética de los números reales, ya hemos introducido la palabra clave de la matemática del siglo XX: los conjuntos. El gran descubrimiento residió en que, sobre esta pala- bra, se pudiera basar el edificio entero, y fue gracias a Georg Cantor, que llegó a esta idea con motivaciones puramente matemáticas, vin- culadas con un estudio de problemas de análisis clásico. Con motivaciones diferentes, relacionadas con el intento de de- 20 4. Fundamentos mostrar que los conceptos y los objetos matemáticos son, en su esen- cia más profunda, de naturaleza puramente lógica, también Gottlob Frege había desarrollado un enfoque equivalente al de Cantor, que hoy se denomina teoría ingenua de conjuntos. Esta teoría se basa sólo en dos principios, que reducen los con- juntos a las propiedades que los definen. Primero, el principio de ex- tensión, ya enunciado por Gottfried Wilhelm Leibniz: un conjunto está completamente determinado por sus elementos, por lo tanto, dos conjuntos con los mismos elementos son iguales. Por otra par- te, el principio de comprensión: toda propiedad determina un conjunto, constituido por los objetos que satisfacen esa propiedad; y todo con- junto está determinado por una propiedad, que es precisamente la de ser un objeto que pertenece al conjunto. El descubrimiento de que dos principios tan simples y lógicamen- te elementales fueran la base de toda la matemática se consideró el punto de llegada de su historia: la geometría había sido reducida al análisis, el análisis a la aritmética, y ahora el trabajo de Cantor y Fre- ge mostraba que, a su vez, la aritmética podía ser reducida a la teoría de conjuntos, es decir, a la lógica pura. Pero esto era demasiado bello para ser verdadero, y uno de los primeros descubrimientos del siglo XX fue, precisamente, que esta sencilla cimentación era inconsistente; de aquí surge la calificación de “ingenua” En 1902, Bertrand Russell demostró que el principio de comprensión era contradictorio, con un razonamiento que se hizo famoso con el nombre de la paradoja de Russell. Sustancialmente, los conjuntos de objetos se dividen en dos cla- ses, según se considere si son o no uno de los objetos contenidos en el conjunto mismo o, dicho de otra manera, si cada conjunto pertenece o no a sí mismo. Por ejemplo, el conjunto de los conjuntos con más de un elemento pertenece a sí mismo, porque en efecto tiene más de La Matemática del siglo XX 21 un elemento. Y el conjunto de los conjuntos con un solo elemento no pertenece a sí mismo porque, ciertamente, también este conjunto tiene más de un elemento. El problema es: ¿el conjunto de todos los conjuntos que noper- tenecen a sí mismos, pertenece o no a sí mismo? Si es así, entonces es uno de los conjuntos que no pertenecen a sí mismos, y por tanto no puede pertenecer a su colección, es decir, a sí mismo. Si no es así, entonces es uno de los conjuntos que no pertenecen a sí mismos, y entonces pertenece a su colección, es decir, a si mismo. La solución o, mejor dicho, la remoción de la paradoja de Russell pasa hoy a través de una limitación del principio de comprensión, y una distinción entre clase y conjunto.Un conjunto es, simplemente, una clase que pertenece a otras clases: entonces, todos los conjuntos son clases, pero no todas las clases son conjuntos, y las que no lo son se llaman clases propias. Si se intenta reproducir el argumento de Russell considerando la clase de los conjuntos que no pertenecen a sí mismos, se obtiene una sorpresa. En efecto, esta clase no puede pertenecer a sí misma, pues de lo contrario sería un conjunto que no pertenece a sí mismo. En- tonces no pertenece a sí misma, y entonces o no es un conjunto o per- tenece a sí misma; como se acaba de excluir la segunda opción, debe ser verdadera la primera. En otras palabras, esta vez no se encontró una paradoja sino una demostración de que la clase de los conjuntos que no pertenecen a sí mismos es propia. Naturalmente, la clase de las clases que no pertenecen a sí mis- mos es contradictoria, exactamente como antes. Entonces el principio de comprensión debe ser reformulado, diciendo que una propiedad de conjuntos siempre determina una clase. Pero así el principio pierde mucha fuerza, porque entonces sólo permite definir clases a partir de conjuntos, los que ya deben haber sido definidos de alguna manera. 22 4. Fundamentos Y no hay soluciones indoloras o elegantes al problema, ya que la solución natural que ofrece el axioma de comprensión es impractica- ble. Se trata entonces de abandonar el enfoque analítico o desde arri- ba y adoptar un enfoque sintético o desde abajo, enumerando una serie de principios de existencia y de reglas de construcción de los conjuntos, que permitan generar algo provechoso pragmaticamente, es decir, todos los conjuntos de uso corriente, pero al mismo tiempo evitar lo perjudicial, es decir, todos los conjuntos paradójicos. Una primera lista de axiomas fue compilada por Ernst Zermelo en 1908. Ante todo, esta lista requiere la existencia de al menos un conjunto, lo que no se puede demostrar considerando únicamente el axioma de comprensión para las clases. Disponiendo de un punto de partida, se pueden construir luego otros conjuntos mediante di- versas operaciones, cuya factibilidad está garantizada precisamente por los axiomas. Para los conjuntos, estas operaciones son análogas a las operaciones aritméticas; por ejemplo, la unión, el producto car- tesiano y el conjunto potencia para los conjuntos son versiones de la suma, el producto y el elevamiento a potencia para los números. Sin embargo, todas estas operaciones no permiten demostrar la existencia de conjuntos infinitos, necesarios para reducir el análisis a la aritmética, es decir, los números reales a conjuntos (precisamen- te, infinitos) de números enteros. Por lo tanto, un axioma ulterior requiere la existencia de un conjunto infinito, uno, por ejemplo, cu- yos elementos satisfagan todos los axiomas restantes de la teoría de Zermelo y que, por consiguiente, contiene en particular todas las po- tencias sucesivas de un conjunto finito. La lista de Zermelo fue actualizada en 1921 por Abraham Fraen- kel, con el agregado de un axioma que afirma que los valores de una función definida sobre la base de un conjunto constituyen otro con- junto. Al sistema completo se lo denomina teoría de Zermelo y Fraenkel. La Matemática del siglo XX 23 La teoría parece suficiente para los usos comunes de la matemá- tica, pero esto no significa que siempre lo será. Por ejemplo, en los años 1960 el trabajo de Alexander Grothendieck, al que nos referire- mos más adelante, debió agregar un nuevo axioma: la existencia de un conjunto inaccesible, cuyos elementos satisfacen todos los axiomas de la teoría de Zermelo y Fraenkel, y que por consiguiente contiene en particular todas las potencias sucesivas de un conjunto infinito. Más en general, en la segunda mitad del siglo se agregaron axio- mas de existencia de conjuntos cada vez más grandes, denominados grandes cardinales, y lo interesante es que permiten probar resultados que se refieren a los números enteros, que no pueden probarse sin ellos; en otras palabras, así como en la física parece haber una rela- ción entre la teoría cosmológica del universo en grande y la teoría cuántica del universo en pequeño, también en matemática existe una relación entre la teoría global de los conjuntos y la teoría local de los números. Sobre la base del teorema de la incompletud de Gödel acerca del cual volveremos a hablar, es imposible, de todos modos, formular un sistema de axiomas definitivo para la teoría de los conjuntos, o si- quiera para la teoría de los números. Por lo tanto, cualquier extensión del sistema de Zermelo y Fraenkel está destinada a ser provisoria y suplantada por las extensiones ulteriores que se tornarán necesarias para una cada vez mejor, pero nunca conclusiva, comprensión de la noción de conjunto. 4.2. Década de 1940: Las Estructuras La teoría de los conjuntos fue, en el siglo XIX, el punto culminante de la concepción reduccionista de la matemática, que a través del análisis lógico redujo precisamente la geometría al análisis, el análisis a la aritmética y la aritmética a la lógica. Pero el análisis lógico de la 24 4. Fundamentos matemática presenta las mismas limitaciones que la crítica literaria: interesa a los especialistas pero no a los autores ni a los lectores, en este caso, a los lógicos pero no a los matemáticos. En efecto, para el matemático profesional, la teoría de los conjun- tos tenía (y tiene) dos desventajas evidentes. Ante todo, así como la teoría atómica no ha modificado la percepción de los objetos macros- cópicos en la vida cotidiana, la reducción de los objetos matemáticos a los conjuntos tampoco ha influido en la práctica; por ejemplo, para hacer cuentas no se piensa en los números enteros como clases de conjuntos equipotentes. Además, si bien las paradojas han preocupado a los lógicos, han dejado muy indiferentes a los matemáticos, que en general ven la (in)consistencia como un problema no de la matemática misma, sino de sus presentaciones formales; en este caso, de la teoría de los con- juntos y no de su práctica. Por lo tanto, la teoría de Zermelo y Fraenkel fue considerada como la solución compleja de un problema irrele- vante. Como conclusión, la teoría de los conjuntos parece haber dejado al matemático profesional sólo dos contribuciones, ambas esenciales pero independientes de axiomatizaciones particulares. Por un lado, una teoría de los conjuntos infinitos, o sea, como dijo David Hilbert, ese “paraíso creado por Cantor, del que nadie nos podrá echar”. Por otra parte, un conveniente lenguaje para la formulación de los con- ceptos, cada vez más abstractos, que produce la práctica moderna. En los años 1930, un grupo de matemáticos franceses, conocido con el nombre colectivo de Nicolas Bourbaki, se propuso entonces fundar la matemática de manera más significativa para los matemá- ticos, y encontró una solución en un análisis que ya no era lógico sino estructural. El grupo se embarcó en el proyecto infinito, y por lo tan- to jamás concluido, de preparar un manual que describiera el estado La Matemática del siglo XX 25 del arte de la matemática contemporánea; el manual se llamó, con una obvia referencia a Euclides, Elementos de matemática, y el primer fascículo se publicó en 1939. Como en la obra de Euclides, el manual se dividió en libros, de los cuales los seis primeros estaban dedicados a los fundamentos. La nómina de los libros testimonia ya el redimensionamiento del rol fundacional de la teoría de conjuntos, de la que se habla sólo en el primero. En los otros cinco,en cambio, se consideran el álgebra, la topología, las funciones de variables reales, los espacios vectoriales topológicos y la integración. En 1949, Bourbaki retomó sus posiciones filosóficas, que en aquel momento ya eran las dominantes, en un artículo titulado elocuente- mente “Los fundamentos de la matemática para el matemático” (y no para el lógico). En él se enunció la afirmación abstracta de que to- da la matemática contemporánea se puede construir basándose en la noción de estructura, y el manual que se estaba escribiendo fue pre- sentado como la demostración concreta de que esta afirmación era correcta. La idea fundamental del concepto de estructura se puede explicar con un ejemplo. En la teoría de conjuntos, los números reales se de- finen artificialmente como conjuntos de números enteros, y las ope- raciones y las relaciones basadas en ellos se reducen artificialmente a operaciones y relaciones de conjuntos. En el enfoque de Bourbaki, en cambio, los números reales y sus operaciones y relaciones se toman como datos, y se aislan sus propiedades de manera abstracta. Desde un primer punto de vista, se trata de describir las propie- dades de las operaciones de suma y producto. Por ejemplo, existen dos elementos neutros, el 0 para la suma y el 1 para el producto; am- bas operaciones son asociativas y conmutativas e inverübles (salvo para la división por 0); y el producto es distributivo respecto de la 26 4. Fundamentos suma. Estas propiedades se encuadran en un estudio general de las estructuras algebraicas, cuyos ejemplos más comunes son: monoides, grupos, anillos, cuerpos y campos. Los números reales constituyen, precisamente, un ejemplo de campo. Desde un segundo punto de vista, se trata en cambio de describir las propiedades del orden. Por ejemplo, cada par de números reales es comparable; entre dos números distintos siempre hay un tercero; y no hay espacios vacíos. Estas propiedades se encuadran en un estu- dio general de las estructuras de orden y se expresan con los conceptos de totalidad, densidad y completitud. Desde un tercer punto de vista, no se trata de describir las propie- dades de los números reales individuales, sino de sus entornos. Por ejemplo, los números reales constituyen un conjunto sin interrup- ciones; cada par de números se puede separar mediante intervalos abiertos; y se necesitan infinitos intervalos abiertos para cubrir todo el conjunto de los números reales. Estas propiedades se encuadran en un estudio general de las estructuras topológicas, y se expresan con los conceptos de conexión, separabilidad y (no) compacidad. Los tres puntos de vista aislados se pueden integrar luego entre sí. Por ejemplo, las operaciones de suma y producto son compatibles con las relaciones de orden y de distancia, en el sentido de que las preservan (excepto el producto por un número negativo, que invierte el orden). Estas propiedades se encuadran en un estudio general de las estructuras algebraicas ordenadas y de las estructuras algebraicas to- pológicas y en las cuales las operaciones algebraicas son precisamente compatibles, respectivamente, con el orden y la distancia, y los nú- meros reales son un ejemplo de campo ordenado y topológico. Si bien las estructuras ya existían antes de Bourbaki, la importan- cia de su trabajo fue haber demostrado que en ellas se podía fundar la matemática. El enfoque tuvo un gran éxito, porque un número su- La Matemática del siglo XX 27 ficientemente reducido de estructuras madre resultó adecuado para tratar una gran cantidad de casos interesantes, con una óptima re- lación de eficiencia. Y la influencia de Bourbaki es evidente hoy en las divisiones modernas de la matemática, que ya no son las clásicas aritmética, álgebra, análisis y geometría, sino una enorme variedad de híbridos, como el álgebra topológica o la geometría algebraica. Pero las ventajas del bourbakismo no fueron sólo pragmáticas; también desde un punto de vista teórico resultó ser un paso hacia adelante respecto del enfoque de los conjuntos. Dejando de lado la li- mitada consideración de conjuntos vinculados por funciones, la aten- ción se concentró en los conjuntos estructurales, vinculados por fun- ciones que preservan la estructura, una abstracción menos artificial y drástica, que pudo capturar mejor la esencia de los objetos matemá- ticos. 4.3. Década de 1960: Las Categorías Si bien los fundamentos de la teoría de conjuntos y los bourba- kistas fueron considerados satisfactorios para una buena parte de la matemática, y lo siguen siendo, en algunos campos los conceptos de conjunto y estructura resultaron demasiado limitados y necesitaron una extensión. Por ejemplo, como ya lo habíamos señalado, Grothen- dieck tuvo que introducir la consideración de un conjunto inaccesi- ble, por lo tanto, de la clase de todos los conjuntos que satisfacen los axiomas de la teoría de Zermelo y Fraenkel. Pero a la necesidad de una extensión del enfoque estructural se llega también con conside- raciones teóricas y no sólo por motivaciones prácticas. El proceso que lleva de un ejemplo concreto, como los números reales, a una estructura abstracta, como los campos topológicos, por un ladomantiene algunas propiedades significativas del ejemplo, pe- ro por el otro le quita muchas otras. Sólo en casos excepcionales una 28 4. Fundamentos estructura admite sustancialmente un solo ejemplo y puede, por lo tanto, describirlo completamente. En cambio, cuando una estructura admite muchos ejemplos radicalmente diferentes, como por lo ge- neral ocurre cuando se focalizan las generalidades comunes de sus múltiples realizaciones, automáticamente desenfoca sus particulari- dades individuales. Un modo de reivindicar la variedad de los ejemplos consiste en invertir el proceso de abstracción, considerando la clase de todos los posibles ejemplos de una estructura de cierto tipo, vinculados por todas las posibles fundones que preservan su estructura; de este mo- do se llega al concepto de categoría, introducido en 1945 por Samuel Eiknberg y Saunders MacLane. Que su trabajo es un complemento natural del de Bourbaki lo indica el hecho de que Eilenberg fue uno de los miembros del grupo, es más, fue el único miembro no francés de toda su historia (y premio Wolf en 1986). Pero para poder considerar el concepto de categoría como un aná- lisis del concepto de estructura, se necesita un nuevo esfuerzo de abs- tracción, es decir, se trata de determinar qué hay en común entre los distintos ejemplos de categorías obtenidos de las distintas estructu- ras. Aunque a primera vista su enorme variedad lleva a pensar que estos ejemplos tienen muy poco en común, el sorprendente descu- brimiento de Eilenberg y MacLane reside en que siempre comparten algo esencial: el hecho de estar constituidos por una clase de conjun- tos vinculados por funciones que se pueden componer entre sí de manera asociativa, y entre las cuales al menos la función siempre es idéntica. Igualmente sorprendente fue la observación de que, dado que las funciones llevan automáticamente consigo los conjuntos de sus argu- mentos y de sus valores, en realidad, no hay necesidad de hablar de estos conjuntos. De estamanera, ya no hace falta ningún uso residual La Matemática del siglo XX 29 de la teoría ingenua de los conjuntos, que todavía estaba presente en la noción de conjunto estructurado, y se obtiene un fundamento al- ternativo y completamente autosuficiente de la matemática, basado en conceptos que ya no son de conjunto y de pertenencia, sino de función y composición. Además, ya que los conjuntos vinculados por funciones son un ejemplo particular de categoría, basta caracterizar completamente de manera categórica sus propiedades para reducir toda la teoría de los conjuntos a la teoría de las categorías. Tal caracterización fue encon- trada porWilliam Lawvere en 1964, e irónicamente constituye un pa- so ulterior de análisis lógico: así como toda la matemática del siglo XIX había sido reformulada en conceptos de conjunto, en este caso se trata dereformular estosmismos conceptos en términos de categoría. La teoría de las categorías resultó ser un fundamento global y unitario para la matemática, que contiene como casos particulares tanto los conjuntos de Zermelo y Fraenkel, como las estructuras de Bourbaki. Ello estimula un proceso ulterior de abstracción: así como los conjuntos se pueden vincular entre sí mediante funciones, y las estructuras de un mismo tipo se pueden vincular entre sí median- te funciones que preservan esa estructura, llamadas morfismos, tam- bién es posible vincular entre sí las categorías mediante funciones que preservan las propiedades categóricas, llamadas funtores. Así como los conjuntos con las funciones o las estructuras con los morfismos constituyen categorías, uno se ve tentado de afirmar que las categorías con los funtores constituyen la categoría de las categorías. Pero el problema es que, desde el punto de vista de los conjuntos, muchas categorías constituyen una clase propia, es decir, no pueden formar parte de otras clases, ni constituir particularmente los objetos de otra categoría. La primera solución es restringir la atención a las denominadas 30 4. Fundamentos categorías pequeñas, que constituyen un conjunta De este modo, se obtiene efectivamente la categoría de las categorías pequeñas, que gene- raliza el concepto de clase de todos los conjuntos. Ésta contiene mu- chos ejemplos interesantes, pero obviamente no aquéllos de los que hemos hablado, es decir, la categoría de los conjuntos y las categorías de las estructuras. La segunda solución es la ya mencionada propuesta de Grothen- dieck, que precisamente surgió en este ámbito: ampliar la teoría de los conjuntos con nuevos axiomas que permitan considerar clases de clases, clases de clases de clases, y así sucesivamente. Dependiendo de la potencia de estos axiomas, se obtienen categorías cuyos objetos son clases, clases de clases y así sucesivamente, pero en ningún caso se llega a la categoría de todas las categorías. La tercera solución, quizás la más satisfactoria, es una axiomati- zación de la nociónmisma de categoría. La propuso Lawvere en 1966 y en este ámbito desempeña un rol análogo a la axiomatización de la noción de conjunto de Zermelo y Fraenkel. Además, cuando la axio- matización de Lawvere se reduce a las categorías discretas, que son aquellas en las que las únicas funciones presentes son las identida- des, se obtiene una axiomatización de la teoría de los conjuntos de manera categórica. Estos desarrollos permiten a la teoría de las categorías reivindicar un rol significativo de fundamento de la matemática para los mate- máticos, expresamente declarado en 1971 en el título del clásico texto deMacLane, Categories for the working mathematician [Categorías en la práctica matemática]. Ello no significa que las categorías no tengan nada que ofrecer a los lógicos. Como ejemplo, basta considerar la teoría de los tipos, que Russell, introdujo en 1908 como posible solución a las paradojas, y que es una versión de la teoría ingenua de los conjuntos, basada en La Matemática del siglo XX 31 los axiomas de de extensión y comprensión, con la particularidad de que los conjuntos no son de un solo tipo y que una propiedad de objetos de cierto tipo determina un conjunto del tipo sucesivo. En 1969 Lawvere formuló la teoría de los tipos en versión categórica, y obtuvo la teoría de los tópoi, en la cual se puede desarrollar una lógica, que resultó ser equivalente a la lógica intuicionista, introducida por el topólogo Luitzen Brouwer en 1912, y más general que la clásica aristotélica. Partiendo de motivaciones de geometría algebraica, completa- mente distintas de las anteriores, también Grothendieck llegó de ma- nera independiente a la teoría de los tópoi, que de este modo resul- ta ser un punto de convergencia de muchas disciplinas, y permitió identificar el motivo que impide a la teoría de los conjuntos llegar a ser un fundamento general de la matemática; simplificando, los con- juntos forman un tópos cuya lógica es clásica y, por lo tanto, demasia- do simple como para rendir cuenta, por ejemplo, de la complejidad de la topología y de la geometría algebraica. 4.4. Década de 1980: El Lambda Cálculo La teoría de los conjuntos brindó a los lógicos un fundamento adecuado contra las paradojas. En cambio, los matemáticos, cuya la- bor cotidiana no está relacionada en lo más mínimo con la proble- mática de las paradojas, encontraron en las estructuras de Bourbaki y en la teoría de las categorías fundamentos más adecuados para su práctica. Pero ninguno de los tres enfoques es satisfactorio desde el punto de vista de los informáticos, que emplean masivamente algoritmos y programas que trabajan sobre datos, es decir, funciones que se apli- can a argumentos. Sólo la teoría de categorías trata directamente de funciones, que no se aplican a argumentos, sino compuestas entre sí; 32 4. Fundamentos la informática teórica exige pues un fundamento alternativo, y lo en- cuentra en el Lambda Cálculo propuesto por Alonzo Church en 1933. La idea de Church fue, precisamente, explorar un enfoque alter- nativo para los fundamentos de la matemática, paralelo a la teoría de Cantor y Frege, pero basado en el concepto de función en lugar del de conjunto, según el siguiente esquema: una función correspon- de a un conjunto, un argumento de una función corresponde a un elemento de un conjunto, la aplicación de una función a un argu- mento corresponde a la pertenencia de un elemento a un conjunto y la definición de una función mediante una descripción de los valores corresponde a la definición de un conjunto mediante una propiedad de los elementos. Por lo tanto, la teoría ingenua de los conjuntos se traduce auto- máticamente en una teoría ingenua de las funciones. Y se basa en dos únicos principios, que reducen las funciones a las descripciones de sus valores. Ante todo, el principio de extensión: una función está com- pletamente determinada por sus valores y, por lo tanto, dos funcio- nes que poseen los mismos valores para los mismos argumentos son iguales. Y, por otra parte, el principio de comprensión: cada descripción de valores determina una función, y cada función está determinada por una descripción de valores. Pero si la teoría ingenua de los conjuntos había logrado generar grandes esperanzas antes de la paradoja de Russell, después de ésta la teoría ingenua de las funciones parece destinada a ofrecer pocas esperanzas. En particular se puede pensar que la paradoja se puede reproducir fácilmente también en este nuevo contexto. En efecto, tratando de reproducirlo, se cae inmediatamente en un problema: qué significado se debe asignar a la negación en el ámbito de las funciones; la cuestión se puede dejar de lado por un momen- to suponiendo que exista precisamente una función n que actúe de La Matemática del siglo XX 33 algún modo análogo a la negación. Ya que la paradoja de Russell se basaba en el conjunto de los conjuntos que no pertenecían a si mis- mos, en este caso se trata de considerar la función cuyos valores en determinado argumento se obtienen aplicando n al resultado de la aplicación del argumento a sí mismo. Pero surge un problema: ¿cuál es el resultado de la aplicación de tal función a sí misma? Para la definición que se acaba de dar, tal va- lor se obtiene aplicando n al resultado de la aplicación de la función a sí misma, entonces, ese es un argumento que no cambia aplicando n. En efecto, ésta es una contradicción si se supone que n es una fun- ción que cambia todos los argumentos a los que se aplica, pero nada indica que sea así. Por el contrario, el razonamiento demuestra preci- samente que no puede ser así si la teoría es consistente, en el sentido de que ninguna función puede asignar valores distintos a un mismo argumento. Se obtendría una contradicción sólo si se supiera que la teoría es inconsistente (en el sentido que se acaba de describir), pero en este caso el razonamiento resulta inútil, porque era justamente lo que intentaba demostrar.Pero si la teoría es consistente, el argumento prueba que ninguna función de la teoría puede cambiar todos sus argumentos; dicho de otro modo, cada función debe dejar invariado al menos un argumento, que por este motivo se denomina punto fijo. Por lo tanto, el argumento de Russell no es suficiente para demos- trar la incosistencia de la teoría de Church, y esto ya es un primer re- sultado parcial. Todavía se puede pensar que algún argumento más complicado pueda lograrlo, pero en 1936 Church y John Barkley Ros- ser demostraron un famoso y difícil teorema, del que se deduce que la teoría es consistente, pues una función también puede no asignar ningún valor al argumento, pero si asigna uno éste es único. El teorema de Church y Rosser demostró que el Lambda Cálculo 34 4. Fundamentos era una teoría singular, al mismo tiempo basada en principios inge- nuos y demostrablemente consistente, por lo tanto al reparo de las paradojas, no sólo actuales, sino también potenciales. Pero a prime- ra vista, la cura pareció más dolorosa que la enfermedad: el precio a pagar por la consistencia era la imposibilidad de definir dentro de la teoría una función análoga a la negación y, más en general, de englo- bar en ella a la lógica. En un período en que la fascinación por el plan de reducción de toda la matemática a la lógica todavía era fuerte, no obstante sus evidentes dificultades, la cuestión pareció inaceptable, y el Lambda Cálculo no fue considerado como un fundamento ade- cuado para la matemática. Pero ya en 1936 Church y Stephen Kleene demostraron que el Lambda Cálculo se podía englobar en la aritmética. Actualmente, es posible reformular su resultado de la siguiente manera: las funcio- nes que se pueden representaren el Lambda Cálculo son exactamente las que se pueden describir en cualquiera de los lenguajes comunes de programación universal para ordenadores. Naturalmente, el re- sultado de Church y Kleene era futurista, ya que en aquel entonces no existían los ordenadores, y su formulación originaria no podía demostrar todas sus potencialidades. Pero con la llegada de los or- denadores se hicieron evidentes y la teoría fue reconocida como el fundamento adecuado para la informática. En particular, el teorema del punto fijo se convirtió en la justifi- cación teórica de los programas autorreferenciales o recursivos, que son de uso común en la programación. Y la semántica denotacional del Lambda Cálculo, inaugurada en 1969 por Dana Scott, desarrolló técnicas que permiten interpretar los programas para ordenadores como auténticos objetos de naturaleza matemática, demostrando de este modo que la informática puede ser considerada, con justa razón, como una de las nuevas ramas de la matemática moderna. Por este La Matemática del siglo XX 35 trabajo, Scott recibió en 1976 el Turing Award el premio para informá- tica análogo a la medalla Fields o al premio Nobel. 36 4. Fundamentos 5 Matemática Pura Durante milenios, la historia de la matemática ha sido, en sus- tancia, la historia del progreso en el conocimiento de entidades nu- méricas y geométricas. Pero en los últimos siglos, y sobre todo en el siglo XX, han surgido nuevas y variadas entidades, que subordina- das plácidamente en un primer momento al estudio de los objetos clásicos, posteriormente adquirieron una impetuosa independencia e inspiraron la denominada nueva edad de oro de la matemática. Si bien la matemática moderna es, por un lado, el producto de un desarrollo que se origina en problemáticas concretas y clásicas, por otro lado, es también el testimonio de una actividad que encuentra su expresión en construcciones abstractas y contemporáneas. Esen- cialmente, la matemática clásica se reducía a cuatro áreas, dedicadas respectivamente al estudio de lo discreto y de lo continuo, es decir, de los números y de las figuras: aritmética y álgebra por un lado, geometría y análisis por el otro. Pero no es tan fácil enumerar las disciplinas de la matemática moderna, que se recen sustancialmente al estudio de las distintas estructuras algebraicas, topológicas y de orden, y a sus combinaciones. 37 38 5. Matemática Pura Aunque los peligros de esta proliferación, a los que ya hicimos referencia en la Introducción, son reales, te conjuran cuando se com- prueba que, más allá de la fragmentación aparente, la matemática del siglo XX exhibe una uni dad sustancial de sus disciplinas. En efecto, el archipiélago de la matemática moderna está conectado por caminos subterráneos, misteriosos e invisibles, que son develados por inespe- radas convergencias, que los hacen emerger y aflorar lentamente. Un símbolo de esta unidad es el episodio del teorema de Fermat, so- bre el cual nos explayaremos más adelante. Sus raíces se encuentran en los estudios pitagóricos sobre los números enteros, que culmina- ron en el siglo III a.C en los Elementos de Euclides. En el siglo III d.C. Diofanto de Alejandría inició un estudio de las soluciones enteras de ecuaciones con coeficientes enteros, y las trató detalladamente en Aritmética, una obra en trece libros, de los cuales sólo sobrevivieron seis. En el siglo XVII, Pierre de Fermat estudió la obra de Diofanto y anotó en los márgenes de su copia 48 observaciones, sin demostra- ción alguna. En el siglo XVIII, todas las observaciones de Fermat habían sido demostradas, con una sola excepción, que por eso, se conoció como el último teorema de Fermat si bien existen dos cuadrados de números enteros cuya suma es un cuadrado (por ejemplo 9 y 16, cuya suma es 25), no existen dos cubos cuya suma sea un cubo, ni dos potencias n-ésimas cuya suma sea una potencia n-ésima, si n es mayor que 2. En el siglo XIX, los intentos por demostrar el último teorema de Fer- mat provocaron importantes progresos en la teoría de números y la confirmación del teorema para un número cada vez más grande de exponentes, pero no una demostración general. En 1995, Andrew Wiles obtuvo la demostración general, a tra- vés de un enfoque indirecto que, a primera vista, parece totalmente desvinculado del problema, y utilizando un arsenal de técnicas com- La Matemática del siglo XX 39 pletamente abstractas. Para resolver un sencillo problema numérico, con un enunciado elemental y clásico, fue necesario apelar a una gran parte de la matemática superior y moderna. Y el episodio es un ejem- plo, no sólo de la aparente continuidad dinámica, diacrónica y verti- cal de cada área de la matemática, sino también de la oculta conexión estática, sincrónica y horizontal entre las áreas más diferentes. Típico de esta visión de la matemática como un todo unitario es el programa de Langlands: enunciado en los años 1960 por Robert Lang- lands, el programa especifica una serie de conjeturas sobre las po- sibles conexiones entre áreas diferentes, y la demostración de Wiles constituye una todavía parcial, pero ya sustanciosa, realización. En reconocimiento por esta obra de unificación, Langlands y Wiles reci- bieron el premio Wolf en 1995/1996. Si bien la teoría de los números, de la cual el teorema de Fermat es uno de los enunciados, es quizá la disciplina en la cual las cone- xiones típicas de la matemática contemporánea entre lo diacrónico y lo sincrónico, lo clásico y lo moderno, lo concreto y lo abstracto se manifiestan de la manera más espectacular, está bien lejos de ser la única. Otro episodio simbólico es el estudio del círculo y la esfera, que se encuentran entre los objetos aparentemente más simples estudia- dos por la geometría. Arquímedes fue el primero en descubrir, en el año 225 a.C., la existencia de una misteriosa conexión entre algunos de sus aspectos: la circunferencia y el área del círculo, así como la superficie y el volumen de la esfera, están todos vinculados con la misma constante π, y para calcularla se desarrollaron durante siglos varios métodos (geométricos, algebraicos y analíticos). No obstante la aparente simpleza de círculo y esfera, algunos pro- gresos sustanciales en su estudio debieron esperar hasta el siglo XIX. Ante todo, fue necesarioel desarrollo de métodos algebraicos y ana- 40 5. Matemática Pura líticos sofisticados para demostrar la imposibilidad del problema pu- ramente geométrico de la cuadratura del círculo (la construcción me- diante regla y compás de un cuadrado de área igual a la de un círcu- lo dado). Además, algunos métodos topológicos permitieron distin- guir la esfera de otras superficies cerradas del espacio tridimensional; sustancialmente, la esfera es la única superficie que permite que un elástico extendido sobre sí mismo se contraiga hasta alcanzar un so- lo punto. Por último, algunos métodos diferenciales permitieron de- mostrar que el cálculo infinitesimal se puede extender desde el plano a la esfera de una sola manera. Algunos de los estudios fundamentales de la matemática del si- glo XX se refieren a la hiperesfera, que es para el espacio de 4 dimen- siones lo que el círculo y la esfera son para el espacio de 2 y 3 dimen- siones. Uno de los problemas abiertos más importantes de la mate- mática moderna, y que discutiremos más adelante, llamado conjetura de Poincaré, se pregunta si vale una caracterización topológica de la hiperesfera análoga a la de la esfera. Pero ya se ha demostrado que el cálculo infinitesimal se puede extender del espacio a la hiperesfera de una sola manera. Círculo, esfera e hiperesfera son casos particulares de esferas en n dimensiones en espacios de n + 1 dimensiones, y algunos de los resultados más importantes y profundos de la matemática moder- na, de los que hablaremos más adelante, se obtuvieron precisamente considerando esferas de varias dimensiones. Por ejemplo, lo análogo a la conjetura de Poincaré se demostró para las esferas de cualquier número de dimensiones mayor que 3, y se encontraron muchas ma- neras no equivalentes de extender el cálculo infinitesimal a la esfera de 7 dimensiones. Estos y otros resultados han revelado una paradoja aparente: cuan- do se aumenta el número de dimensiones, aunque los objetos se tor- La Matemática del siglo XX 41 nan cada vez más difíciles de visualizar intuitivamente, se hacenmás fáciles de tratar matemáticamente, porque hay más espacio para ma- nipularlos. Por ejemplo, dar vuelta un guante derecho para conver- tirlo en un guante izquierdo es fácil en el espacio de cuatro dimen- siones, pero difícil (aunque no imposible para un teorema de Stephen Smale de 1959) en el espacio de tres dimensiones. Esta impresión también se confirma en un nivel elemental, por ejemplo, con el cómputo del número de los “poliedros” regulares, que son 5 en el espacio de 3 dimensiones (los famosos sólidos plató- nicos), 6 en el espacio de 4 dimensiones, pero sólo 3 en los espacios de dimensiones mayores. Irónicamente, los casos más difíciles de es- tudiar resultan ser justamente los de 3 y 4 dimensiones, los que co- rresponden al espacio y al espacio-tiempo en que vivimos. Los ejem- plos anteriores muestran de qué manera también el estudio de pro- piedades elementales de objetos simples, como los números enteros y las figuras geométricas, puede necesitar el desarrollo de técnicas sofisticadas y de áreas abstractas. Y ya que es esta perspectiva, pre- cisamente, la que permite justificar a posteriori tanto los objetos como los métodos de la matemática moderna, nos atendremos a ella para exponer sus etapas más significativas. 5.1. Análisis: La medida de Lebegue (1902) Por su propia definición, la geometría (de geo “tierra” y metrein “medida”) se ocupa de problemas referidos a longitudes de curvas, áreas de superficies y volúmenes de sólidos. Estos problemas fue- ron afrontados de manera sistemática a partir de los Elementos de Euclides, que en el año 300 a.C proporcionaron un fundamento geo- métrico a toda la matemática griega. Consideremos por ejemplo, para fijar la atención, el problema del área. Euclides no dio ninguna definición ni del área ni de alguna de 42 5. Matemática Pura sus medidas, pero enunció algunas “nociones comunes” de las que se deducen las siguientes propiedades: superficies “iguales” tienen áreas iguales (invarianza); una superficie que se obtiene “sumando” entre sí un número finito de superficies tiene un área igual a la suma de las áreas de éstas (aditividad finita); una superficie contenida en otra tiene un área menor o igual a ésta (monotonía). Sobre la base de las dos primeras nociones, se puede llegar a asig- nar un área a cada polígono en dos pasos: por una parte, asignando un área a cada triángulo (por ejemplo, “base por altura dividido 2”); por otro lado, descomponiendo el polígono en triángulos y suman- do sus áreas. Naturalmente, para que todo funcione se deberá de- mostrar, por un lado, que el área de un triángulo no depende de la elección de la base y de su respectiva altura; por otro lado, que el área de un polígono no depende de la elección de la triangulación. Aunque estos desarrollos están implícitos en Euclides, su trata- miento era extremadamente carente desde un punto de vista lógico y usaba, en particular, numerosas suposiciones escondidas, que se explicitaron cuidadosamente sólo en el siglo XVII. E1 trabajo de sis- tematización de la geometría de Euclides se concluyó en 1899, con la publicación de los Fundamentos de la geometría de Hilbert. En 1833, Jànos Bolyai demostró un teorema interesante, que com- plementó los resultados de Euclides que acabamos de mencionar. Es- te teorema explicaba que dos polígonos que tienen el misma área se pueden descomponer en un número finito de triángulos equivalen- tes. En particular, todo polígono se puede “cuadrar” en el sentido de descomponerlo en un número finito de triángulos que, vueltos a componer, constituyen un cuadrado con la misma área. O viceversa, un cuadrado se puede convertir en un polígono cualquiera volvien- do a componer una apropiada descomposición del mismo en trián- gulos (Figura 2). La Matemática del siglo XX 43 En lo que respecta a los volúmenes de poliedros, se puede imagi- nar un tratamiento análogo, en el que las triangulaciones se sustitu- yan por descomposiciones en tetraedros. El tercer problema de Hilbert preguntaba si vale un teorema análogo al de Bolyai, es decir, si todo poliedro se puede descomponer en un número finito de tetraedros que, vueltos a componer, constituyan un cubo con el mismo volu- men. Max Dehn dio inmediatamente una respuesta negativa; él de- mostró, por ejemplo, que esto no es posible ni siquiera para los mis- mos tetraedros. b b b b Figura 2. “Cuadratura” de un triángulo Una vez resuelto el problema del área para las figuras rectilíneas como los polígonos, se debe pasar, naturalmente, al del área de las figuras curvilíneas, ante todo a la del círculo. La idea es aproximar estas figuras mediante polígonos, ya sea desde el interior como des- de el exterior: para la tercera noción común de Euclides, el área de la figura curvilínea estará comprendida entre las áreas de estas aproxi- maciones, y si éstas tienden a un límite común, el área de la figura coincidirá con este límite. Sin embargo, esta noción general es bastante reciente (fue intro- ducida en 1887 por Giuseppe Peano y en 1893 por Camille Jordan). Un primer caso especial, que usa polígonos (semi)regulares, es elmé- todo de exhaución de Eudoxio, del siglo IV a.C., empleado por Arquí- medes alrededor del 225 a.C. para calcular el área del círculo y la superficie de la esfera. Un segundo caso especial, que usa polígonos 44 5. Matemática Pura constituidos por un número finito de rectángulos, es la integral de Riemann, introducida en 1854 por Bernhard Riemann, y que permite calcular el área de cualquier superficie cuyo borde esté delimitado por funciones continuas. En realidad, desde el siglo XVII al XIX, la existencia del área de una superficie se daba por descontada, y las integrales se considera- ban sólo el método para calcularla. Fue Augustin Cauchy, en 1823, quien dio un vuelco a este enfoque, y definió el área como la integral misma; esto planteó el problema de determinar cuáles eran las su- perficies que tenían un área y, en particular, cuáleseran las funciones que tenían una integral. La noción de integral de Riemann es muy general y permite in- tegrar también funciones con infinitas discontinuidades, si éstas no constituyen un conjunto “desmedido”. Hacia finales del siglo XX, con la proliferación de ejemplos de funciones no integrables en el sen- tido de Riemann, se hizo necesario poder precisar una medida del conjunto de discontinuidades, que permitiera separar las funciones integrables de las que no lo son. La noción introducida por Peano y Jordan no resultó suficiente, y el problema fue resuelto definitivamente por Henri Lebesgue, en 1902, con el concepto de medida de Lebesgue. Sustancialmente, Lebes- gue suplantó la aditividad finita de Euclides por la aditividad nume- rable: una superficie que se obtiene “sumando” entre sí una cantidad numerable de superficies tiene un área igual a la suma de las áreas de éstas, Y hoy se considera a una superficie dotada de área (o a un sólido dotado de volumen) cuando es medible en el sentido de Le- besgue. Seguro con su definición de conjunto medible, Lebesgue pudo demostrar que una función es integrable en el sentido de Riemann exactamente cuando el conjunto de sus discontinuidades mide 0, lo La Matemática del siglo XX 45 que no excluye que el conjunto pueda ser muy grande y contener, por ejemplo, tantos puntos como el conjunto mismo de los números reales, aunque no pueda ser demasiado “denso”. Además, así como la integral de Riemann es un caso particular de la medida de Peano o Jordan, se puede definir una integral de Lebesgue como un caso particular de la medida de Lebesgue. Las funciones integrables en el sentido de Riemann también lo son en el sentido de Lebesgue, y con el mismo valor, pero existen funciones integrables en el sentido de Lebesgue que no lo son en el sentido de Riemann. En cuanto al problema de determinar cuáles conjuntos son medi- bles, Giuseppe Vitali demostró inmediatamente que no todos lo son. Luego se descubrió que con los conjuntos no medibles se pueden ha- cer cosas que no se pueden hacer con los conjuntos medibles. Hasta el punto de que, por la costumbre de tratar con conjuntos medibles, aquéllos no medibles pueden parecer paradójicos. Por ejemplo, en 1914, Félix Hausdorff demostró que dada una es- fera, es posible subdividir su superficie en un número finito de piezas (obviamente, no medibles) que, vueltas a componer, constituyen dos esferas, cada una con la misma área de la inicial. Y en 1924, Stefan Banach y Alfred Tarski demostraron un resultado análogo para los volúmenes. En otras palabras, en el espacio, las áreas y los volúme- nes no se preservan por descomposición en piezas no medibles. Una analogía de esas paradojas no es posible en el plano. Pero, en 1988, Miklos Laczkovich demostró que, dado un circulo, es posible subdividirlo en un número finito (aunque enorme: 1050 aproximada- mente) de piezas (no medibles) que, vueltas a componer, constituyen un cuadrado con el misma área. En otras palabras, en el plano la cur- vatura no se preserva por descomposición en piezas no medibles. 46 5. Matemática Pura 5.2. Álgebra: La Clasificación de los campos de Steinitz (1910) Como lo indica su nombre, los números naturales constituyen una de las intuiciones primordiales de la matemática: en cuanto proba- bles abstracciones de los latidos del corazón, tienen sus raíces en el devenir y el tiempo, así como los puntos geométricos son, en cambio, una abstracción del ser y del espacio. Históricamente, la primera extensión de los naturales fue la de los números racionales positivos, permite una inversión del producto. Puesto que la división no presenta grandes dificultades conceptuales, los racionales ya estaban bien establecidos en el siglo VI a.C., y fueron tomados por los pitagóricos como fundamento de su filosofía. En cambio, la extensión de los números naturales a los números enteros, positivos y negativos, necesitó dos innovaciones esenciales. La primera fue la aparición del cero, cuya ausencia ni siquiera per- mite presentar el problema de la inversión de la suma; el cero fue introducido en el siglo VII d.C. por los hindúes, y en la segunda mi- tad del primer milenio por los mayas. La segunda innovación fue la consideración de cantidades negativas, que no tienen sentido hasta que los números se consideran a la manera griega, como medidas de cantidades geométricas; también los negativos fueron introducidos en el siglo VII d.C. por los hindúes, para medir deudas. Si se integran las dos extensiones anteriores a la consideración de los números racionales, tanto positivos como negativos, se obtiene el primer ejemplo de campo, es decir, según la definición dada porHein- richWeber en 1893, de un conjunto de elementos dotado de operacio- nes de suma y producto que poseen las propiedades usuales, incluso la invertibilidad. Los hindúes fueron los primeros en adoptar explí- citamente el campo de los racionales, pero los árabes primero y los europeos después rechazaron los números negativos hasta el siglo XVIII y, aún en 1831, Augustus de Morgan negaba su sensatez. La Matemática del siglo XX 47 Un segundo ejemplo típico de campo lo dan los números reales. Mientras que los irracionales fueron descubiertos por los pitagóricos y manipulados formalmente por hindúes y árabes, aquéllos no fue- ron considerados como números sino hasta el siglo XVII, a partir de RenéDescartes y JohnWallis. Y hubo que esperar hastamediados del siglo XIX para llegar a definiciones de los números reales, basadas en los números racionales, las secciones de Richard Dedekind en 1958 y las sucesiones convergentes de Georg Cantor (y otros) en 1872. Los números complejos fueron introducidos por Gerolamo Cardano en 1545, para solucionar las ecuaciones de tercer grado, y las ope- raciones de campo basadas en estos números fueron definidas por Raffaele Bombelli en 1572; pero, en ambos casos, se trataba de arti- ficios formales con puros símbolos, que no representaban más que “números imaginarios”, actitud que persistió hasta el siglo XVIII. Só- lo el teorema fundamental del álgebra, que establece que todo poli- nomio de grado n de coeficientes complejos tiene n ceros complejos, demostrado por primera vez por Gauss en 1799, les confirió el esta- do de números independientes, y brindó el primer ejemplo de campo algebraicamente cerrado, es decir, que contiene todos los ceros de su polinomio. La definición formal de los números complejos, como pa- res de números reales, y de las respectivas operaciones de campo fue dada por William Hamilton en 1837. Conmotivaciones diferentes, tanto Evariste Galois, en 1830, como Dedekind, en 1871, llegaron ala definición de una clase completa de campos, mediante un procedimiento de extensión de los racionales. Consideraron, dado un irracional α, el conjunto mínimo de números reales (o complejos) que forma un campo y contiene tanto a los racio- nales como al mismo α; este conjunto se puede generar directamente, partiendo de α y haciendo todas las posibles adiciones, sustracciones, multiplicaciones y divisiones (excepto por 0). Si el elemento a que se 48 5. Matemática Pura agrega es el cero de un polinomio de coeficientes racionales, como en el caso de √ 2 la extensión se llama algebraica; de lo contrario, como en el caso de π, se llama trascendente. Además de los campos infinitos, de los cuales todos los casos cita- dos son ejemplos, existen también campos finitos. Como ejemplo basta considerar los enteros módulo n, del tipo de los que se usan para las horas del día (de 12 o 24 elementos), o para los minutos de la hora (de 60 elementos); se generan como los típicos enteros, partiendo de 0 y agregando cada vez 1, con la diferencia de que cuando se llega a n se llega de nuevo a 0. Para que los enteros módulo n constituyan un campo, es necesario y suficiente que n sea un número primo. Los ejemplos citados muestran el modo en que las nociones de la matemática moderna, entre las cuales la de campo fue uno de los primeros ejemplos significativos, permiten unificaruna gran varie- dad de ejemplos diferentes sobre la base de algunas características comunes. Pero es precisamente la generalidad de estas nociones lo que tiende a desenfocar los contornos, con el riesgo de que se tor- nen inaprensibles; entonces, para describir su extensión se necesitan resultados de clasificación, que constituyen un aspecto complemen- tario de la abstracción. Uno de los primeros ejemplos de esos resultados fue, precisamen- te, la clasificación de los posibles tipos de campo; quien la encontró fue Ernst Steinitz en 1910, sobre la base de la siguiente noción de ca- racterística: dado un campo, se parte del elemento que tiene función de 0 y se sigue agregando el elemento que tiene función de 1; si des- pués de p sumas se vuelve a 0, p debe ser un número primo, y se dice que el campo tiene característica p; si en cambio nunca se vuelve a 0, se dice que el campo tiene característica 0. Los tipos de campos finitos se pueden caracterizar inmediata- mente, sobre la base de la característica: para todo primo p, existen La Matemática del siglo XX 49 infinitos campos finitos de característica p, llamados campos de Galois. Estos campos tienen un número de elementos que es una potencia positiva de p, y para cada potencia positiva de p existe exactamente uno. Dado un campo cualquiera, se define luego su campo primo par- tiendo de 0 y 1, y haciendo todas las posibles adiciones, sustraccio- nes, multiplicaciones y divisiones (excepto por 0). Si la característica del campo de partida es p, su campo primo es un par de números enteros módulo p. Si en cambio la característica es 0, el campo pri- mo es una copia de los números racionales. Y todo campo se puede obtener de su campo primo, mediante sucesivas extensiones: prime- ro una serie, eventualmente infinita, de extensiones trascendentes y luego una serie, eventualmente infinita, de extensiones algebraicas. Viceversa, partiendo de un campo cualquiera se puede efectuar una serie de extensiones algebraicas, hasta construir su cierre algebrai- co, es decir, el mínimo campo algebraicamente cerrado que lo contie- ne. Esto ejemplifica una de las típicas consecuencias de la abstrac- ción, es decir, la posibilidad de obtener versiones generales de resul- tados particulares; en este caso, la extensión a campos cualesquiera del proceso de cierre que lleva de los números reales a los números complejos, mediante el agregado de todos los posibles ceros de poli- nomios. 5.3. Topología: El Teorema del Punto Fijo de Brouwer (1910) Desarrollando la teoría de los conjuntos como fundamento de la matemática, Cantor descubrió varias propiedades inesperadas. Una de las más sorprendentes se refiere a la fundamental noción geomé- trica de dimensión; espacios de distinta dimensión, como una recta y un plano, pueden tenerla misma cantidad de puntos y ser, por lo tanto, indistinguibles desde el punto de vista de los conjuntos. El des- 50 5. Matemática Pura cubrimiento perturbó tanto a Cantor que lo hizo exclamar, después de demostrar esta noción en 1874: “Lo veo, pero no lo creo”. Obviamente, el resultado de Cantor no significaba que la noción de dimensión fuera una ilusión de la que había que liberarse. Seña- laba más bien un límite más allá del cual las nociones puramente referidas a conjuntos resultaban inadecuadas, y debían ceder el paso a otras de diferente naturaleza. En 1910, Luitzen Brouwer demostró que la topología -el estudio de las propiedades de los objetos geométricos que se mantienen cuan- do los objetos son deformados continuamente, sin romperlos- es ca- paz de distinguir dimensiones distintas; por ejemplo, tanto una rec- ta como un plano están constituidos por una sola pieza, pero una recta se divide en dos partes si se le saca un punto, y un plano no (la propiedad topológica en cuestión se llama conexión). Naturalmen- te, Brouwer demostró el teorema de invarianza de la dimensión en general; más precisamente, para cualquier objeto topológico que se pueda triangular de manera análoga a como se puede hacer para las superficies habituales (tales objetos se llaman complejos, y los que constituyen las triangulaciones simplex). Pero el mayor descubrimiento de Brouwer se relaciona con una propiedad de las transformaciones continuas, que constituyen el prin- cipal objeto de estudio de la topología. En efecto, demostró, también en 1910, un teorema del punto fijo que se convirtió en un instrumento esencial en las áreas más variadas, desde el análisis hasta la econo- mía. En el caso unidimensional, el teorema de Brouwer se reduce al hecho de que una función continua que tenga como argumento y valores todos los puntos de un intervalo debe mantener invariado por lo menos un punto, hecho intuitivamente evidente que significa simplemente que toda curva dentro de un cuadrado unitario, que se La Matemática del siglo XX 51 extienda interrupciones de un lado al otro, debe atravesar la diagonal por lo menos una vez (Figura 3). En el caso bidimensional, el teorema de Brouwer dice que una función continua que tenga como argumentos y valores a todos los puntos de un círculo, debemantener invariado por lo menos un pun- to. Por ejemplo, si se rastrilla en modo continuo la grava de un can- tero circular, debe haber al menos una piedrita que no sea movida. El teorema de Brouwer tiene más valor general de lo que los dos ejemplos citados hacen suponer. Por una parte, el teorema se extien- de a los análogos multidimensionales de intervalos y círculos, como esferas e hiperesferas; un ejemplo de aplicación en el caso tridimen- sional es que si el viento sopla sobre toda la tierra, debe soplar ver- ticalmente por lo menos en un punto, y por lo tanto debe haber un ciclón. Por otro lado, el teorema vale para todas las funciones defini- das en simplex, es decir, en superficies lo suficientemente parecidas a intervalos y círculos, o sea, limitadas y provistas de borde, y sin entradas (propiedades topológicas, éstas, que se llaman compacidad y convexidad). La formulación original del teorema demostraba indirectamente la existencia de un punto fijo, pero no indicaba directamente cómo hacer para encontrar unes irónicamente el mismo Brouwer desarro- lló más tarde una filosofía de la matemática, denominada intuicionis- mo, que considera ilegítimo ese tipo de demostraciones no construc- tivas. De todos modos, en el caso particular del teorema del punto fijo. Emmanuel Sperner dio una demostración constructiva en 1929: con la llegada del ordenador, los cálculos que requería tal demostra- ción se hicieron practicables, y hoy se pueden encontrar puntos fijos de manera efectiva. 52 5. Matemática Pura b Figura 3. Teorema del punto fijo unidimensional En otra dirección, las condiciones para la existencia de puntos fijos se han generalizado de distintas maneras. En lo particular, se han demostrado algunos teoremas de gran utilidad; en 1922, por Ba- nach, para contracciones definidas en espacios métricos completos (en los cuales, a diferencia de los espacios topológicos abstractos, existe una noción de distancia); en 1928, por Knaster y Tarski, para funcio- nes monótonas definidas en órdenes parciales completas (en los cuales cada cadena de elementos tiene un extremo superior); en 1928, por Solomon Lefschetz, para funciones continuas definidas en complejos compactos y contractibles, y no sólo en simplejos; y en 1941. por Kaku- tani, para funciones semicontinuas cuyos conjuntos de imágenes sean todos convexos, y no sólo para funciones continuas. 5.4. Teoría deNúmeros: LosNúmeros TrascendentesdeGelfond (1929) El descubrimiento fundamental de Pitágoras, en el siglo VI a.C., sostiene que existe una correspondencia entre música, naturaleza y matemática: las relaciones armónicas (los intervalos) corresponden a relaciones físicas (entre las cuerdas de un instrumento) y se cuan- tifican con relaciones numéricas (las fracciones). Los pitagóricos no vieron en estas coincidencias una casualidad, sino la manifestación de una necesidad, que codificaron con el credo “todo es racional”, quedebe interpretarse en su sentido literal de que todo se puede La Matemática del siglo XX 53 describir mediante números racionales (ratio significa, precisamente, “relación”). El credo fue cuestionado inmediatamente por el ulterior descu- brimiento de Pitágoras de grandezas inconmensurables, que corres- ponden a números irracionales; en matemática, la diagonal y el lado de un cuadrado, cuya relación es √ 2; y en música, los intervalos de octava y de quinta, cuya relación es (log2 3)− 1. Otro ejemplo simple de irracional es 3 √ 2, que resuelve un proble- ma referido a la duplicación de un altar. Durante la peste de Atenas del 430 a.C., que diezmó a una cuarta parte de la población, los ate- nienses interrogaron al oráculo de Apolo en Delos, quien solicitó que se duplicara el altar cúbico del dios. Los atenienses construyeron uno de doble lado, pero que aumentó el volumen ocho veces, y la peste continuó. La solución correcta es precisamente 3 √ 2, que mide la rela- ción entre los lados de dos cubos cuyos volúmenes son uno el doble del otro, así como √ 2 mide la relación entre los lados de dos cuadra- dos cuyas áreas son una el doble de la otra. La clasificación de los números reales en racionales e irracionales es bastante cruda, y una clase interesante de números reales fue intro- ducida implícitamente por los griegos: los números construibles con regla y compás. Por ejemplo, √ 2 es construible, pero 3 √ 2 no. Aunque los griegos sospecharon esto, la demostración llegó sólo en 1837, gra- cias a Pierre Wantzel, y requirió una caracterización algebraica de los números construibles con regla y compás, cuyas respectivas aplica- ciones corresponden a las operaciones de suma y extracción de raíz cuadrada. De cualquier modo, todos los números construibles son algebrai- cos, en el sentido de que son soluciones de ecuaciones algebraicas de coeficientes enteros, pero no ocurre a la inversa; por ejemplo, 3 √ 2 es algebraico, porque es la solución de x3 − 2 = 0, pero no es construi- 54 5. Matemática Pura ble. Los números no algebraicos se llaman trascendentes, y su existen- cia fue demostrada por primera vez en 1844 por Joseph Liouville. La demostración de Liouville se basaba en una observación in- teresante: el hecho de que un número algebraico irracional no puede estar bien aproximado mediante números racionales, en el sentido de que casi todas las fracciones de denominador q que aproximen un número irracional que es solución de un polinomio de grado n, cum- plen un error de al menos 1qn , Por lo tanto, para construir un número trascendente es suficiente construir un número irracional es decir no periódico, pero que puede ser bien aproximado mediante números racionales, por ejemplo 0,10100100000010000000000000000000000001..., donde el primer bloque de ceros después de la coma tiene 1 cero, el segundo 1 · 2, el tercero 1 · 2 · 3, y así sucesivamente; cortando el desarrollo en los 1 después de la coma se obtienen buenas aproxi- maciones racionales, correctas hasta el siguiente 1 (que cada vez está más lejos). Durante un siglo se aportaron muchas mejoras a la observación de Liouville. El mejor resultado posible lo obtuvo Klaus Roth en 1955: casi todas las fracciones de denominador q que aproximen un núme- ro irracional algebraico cumplen un error de al menos 1q2+ para cual- quier número real 2+ mayor que 2 (el resultado no vale para 2). Por este resultado Roth obtuvo la medalla Fields en 1958. En 1873, Cantor encontró la mejor extensión posible del enuncia- do existencial del teorema de Liouville: casi todos los números reales son trascendentes, porque los números algebraicos son muy pocos. Más precisamente, éstos forman un conjunto que es numerable en el sentido de Cantor, y de medida 0 en el sentido de Lebesgue. La Matemática del siglo XX 55 De todos modos, el resultado de Cantor nada decía de la trascen- dencia de números reales específicos. Con respecto a e, la base de los logaritmos naturales, su trascendencia fue conjeturada en 1748 por Leonhard Euler, y demostrada en 1873 por Charles Hermite. De la trascendencia de e deriva inmediatamente también la de e2 y la de√ e = e 1 2 y más en general la de ex, para todo exponente racional (distinto de 0). En 1882, Ferdinand Lindemann redactó la demostra- ción y probó que ex es trascendente incluso si x sólo es algebraico (distinto de 0), y de este resultado dedujo una gran cantidad de con- secuencias. Ante todo, también log x debe ser trascendente si x es algebraico (distinto de 0 y 1), porque elog x = x. Además, dado que Euler había comprobado en 1746 que eix = cos x+ i sen x, donde i es la raíz imaginaria de −1 (que, aunque no es real, sigue siendo algebraica, ya que es solución de x2 + 1 = 0), y se deduce también que sen x y cos x son trascendentes si x es algebraico. Un caso especial del resultado de Lindemann, de particular im- portancia, se obtiene cuando x = π; en este caso la expresión de Euler se reduce a la que muchos consideran la fórmula más bella de la matemática: eiπ = −1 El exponente iπ produce un valor no trascendente de ex y del teore- ma de Lindemann se deduce que este exponente no puede ser alge- braico; y ya que i es algebraico, π debe no serlo. El hecho de que π sea trascendente implica, en particular, la no constructibilidad de π y, por lo tanto, la imposibilidad de otro famoso problema griego que quedó abierto durante dos milenios: la cuadratura del circulo (con regla y compás). 56 5. Matemática Pura Afinales del siglo XIX no se conocían explícitamentemuchos otros números trascendentes, además de e y π, y el séptimo problema de Hil- bert preguntaba si lo era, por ejemplo 2 √ 2. Generalizando, Hilbert conjeturó que ab siempre es trascendente, si a es algebraico (distinto de 0 y 1) y b es irracional algebraico. Aún en 1919, Hilbert consideraba que este problema era más di- fícil de resolver que la hipótesis de Riemann o el teorema de Fer- mat. Pero en 1929 Alexander Gelfond demostró la trascendencia de eπ , introduciendo una nueva metodología, que condujo, en 1930, a la demostración de la trascendencia de 2 √ 2 realizada por Carl Siegel, premio Wolf en 1978, y en 1934 a la de toda la conjetura de Hilbert, por parte de Gelfond y Thorald Schneider. En 1966, Alan Baker concluyó los resultados de un siglo, comprobando que cualquier producto fi- nito de números trascendentes de los del tipo encontrado por Linde- mann y/o por Gelfond, por ejemplo eπ 2 √ 2, también es trascendente; por este resultado Baker obtuvo la medalla Fields en 1970. No obstante los progresosmencionados, los números trascenden- tes siguen siendo bastantemisteriosos. Los númerosmás obvios cuya trascendencia no se conoce son e+ π, e π y πe, pero existen muchos más; por ejemplo, la constante γ de Euler, que mide la diferencia asin- tótica entre el logaritmo y la serie armónica, es decir, la suma de los inversos de los números enteros; o la constante ζ(3), es decir, la su- ma de los inversos de los cubos de los números enteros (la constante ζ(2), o sea la suma de los inversos de los cuadrados de los números enteros, es trascendente porque Euler calculó, en 1734, que su valor es π 2 6 ). 5.5. Lógica: El Teorema de Incompletitud de Gödel (1931) Uno de los grandes éxitos matemáticos del siglo XIX fue el des- cubrimiento de la geometría hiperbólica, es decir, una geometría en la La Matemática del siglo XX 57 que el axioma de las paralelas es falso. Los axiomas que quedan de la geometría euclídea permiten demostrar, dada una recta y un pun- to fuera de la misma, que existe al menos una paralela a la recta que pasa por el punto (la perpendicular a la perpendicular). El axioma de las paralelas afirma que existe sólo una paralela, por lo tanto su negación implica que existe más de una. Muchos matemáticos se dedicaron a desarrollar la geometría hi- perbólica, en la que el axioma de las paralelas es falso, con la espe- ranza de demostrar que esta geometría es inconsistente, y de demos- trar por el absurdo que el axioma de las paralelases verdadero. Y en la primera mitad del siglo XIX, Carl Friedrich Gauss, Nikolai Loba- chevsky y Jànos Bolyai demostraron, efectivamente, que la supuesta geometría hiperbólica es muy extraña; por ejemplo, no todos los án- gulos tienen la misma suma angular; por tres puntos no colineares no pasa necesariamente un círculo; no existen rectángulos, ni rectas equidistantes; y el teorema de Pitágoras es falso. Pero, por más extraña que parezca, la geometría hiperbólica no se mostró contradictoria. Y en 1868, Eugenio Beltrami demostró que es tan consistente como la euclídea; en efecto, es posible encontrar un modelo del plano hiperbólico en el plano euclídeo. Los modelos más conocidos de la geometría hiperbólica fueron encontrados por Félix Klein, en 1871, y por Henri Poincaré en 1882; en ambos, el plano hiperbólico es un circulo sin el borde; en el primero, las rectas son segmentos euclídeos, pero los ángulos debenmedirse de una manera diferente de la euclídea; en el segundo, los ángulos son los euclídeos, pero las rectas son arcos de círculo perpendiculares al borde (Figura 4-5). 58 5. Matemática Pura Figura 4-5. Modelos de Klein y Poincaré Una vez que se redujo la consistencia de la geometría hiperbólica a la de la geometría euclídea, había que afrontar esta última. Los grie- gos habrían necesitado una demostración directa, ya que ellos habían adoptado fundamentos geométricos para toda la matemática, tras el descubrimiento pitagórico de los números irracionales. Por ejemplo, en los Elementos, Euclides representaba los números como segmen- tos, la adición como concatenación de segmentos, la multiplicación como área de un rectángulo, y así sucesivamente. La geografía y la astronomía estimularon una reducción inversa, de la matemática al álgebra. En el siglo II a.C. Hiparco, quien descu- brió la precesión de los equinoccios, comenzó a utilizar coordenadas de puntos para describir curvas dadas, pero sólo respecto de un sis- tema elegido cada vez sobre la base de la curva. El primero en elegir un sistema de coordenadas fijo fue Oresme, en el siglo XIV, que estaba tan vinculado con el uso geográfico que seguía llamando “longitud” y “latitud” a las coordenadas. La introducción de una notación algebraica satisfactoria, y espe- cialmente el uso de letras para indicar variables, permitió a Pierre de Fermat, en 1629, y a René Descartes, en 1637, desarrollar la geometría analítica. La observación crucial fue que, poniendo en corresponden- cia los puntos con números, también se obtenía una correspondencia La Matemática del siglo XX 59 inducida entre las propiedades de los puntos y las de los números. Por ejemplo, las ecuaciones de primero y segundo grado describen, respectivamente, las rectas y las cónicas (elipse, hipérbola, parábola). En todo caso, tanto para Fermat como para Descartes, el álgebra estaba subordinada a la geometría, y el mismoNewton siguió tratan- do, en los Principia, las órbitas de los planetas a la manera geométrica de los griegos, y no en modo algebraico. El cambio de ruta fue obra de John Wallis, quien en 1657 reescribió de manera algebraica dos libros de Euclides y el tratado sobre las cónicas de Apolonio. Pero una efectiva reducción de la geometría al álgebra tuvo que esperar la llegada de los Fundamentos de la geometría, de Hilbert, en 1899. Hilbert definió un modelo algebraico de la geometría euclídea de la manera en que hoy se conoce: un punto del plano es un par de número reales, una recta es el conjunto de las soluciones de una ecuación de primer grado, la distancia entre dos puntos se defineme- diante el teorema de Pitágoras, y la congruencia mediante el concep- to de isometría (transformación lineal que preserva las distancias). Pero no se trata sólo de definiciones, hay que demostrar que una iso- metría preserva no sólo las distancias sino también los ángulos, y la demostración no es banal. A fines del siglo XIX, la consistencia de toda la geometría había sido reducida a la de la teoría de los números reales. Este traspaso de responsabilidades podría continuar aún, por ejemplo, reduciendo la teoría de los números reales a la de los números enteros. Es más, lo habían hecho ya, algunos decenios antes, Karl Weierstrass, Georg Cantor y Richard Dedekind, lo que le permitió exclamar a Leopold Kronecker: “Dios ha creado los números enteros, todo lo demás es obra del hombre”. Pero tarde o temprano habría sido necesario de- mostrar la consistencia de alguna teoría directamente, y conmétodos tan elementales que su consistencia no pudiera ser puesta en duda. 60 5. Matemática Pura En los albores del siglo XX, el segundo problema de Hilbert requi- rió la demostración directa de la consistencia de la teoría de núme- ros, reales o enteros. Una solución completamente inesperada fue la que dio, en 1931, Kurt Gödel, quien comprobó que la consistencia de cualquier teoría que contenga la teoría de los números enteros no se puede demostrar dentro de la misma teoría. En otras palabras, nin- guna teoría que pretenda fundamentar la matemática es capaz de autojustificarse, y está obligada a buscar su justificación fuera de sí. En particular, ninguna teoría de ese tipo que sea consistente puede ser también completa, en el sentido de que pueda demostrar todas las verdades matemáticas expresables en su lenguaje, y una de las verdades que no puede demostrar es precisamente la propia consis- tencia; es por eso que el resultado de Gödel se denomina teorema de incompletud. De todos modos, la imposibilidad de probar la consistencia de una teoría desde su interior no excluye la posibilidad de demostra- ciones externas, en tanto sean convincentes, y por lo tanto no consti- tuye la última palabra sobre el segundo problema de Hilbert. En par- ticular, una demostración de consistencia significativa, aunque ob- viamente no elemental, de la teoría de los números enteros la dio, en 1936, Gerhard Gentzen, y representa el punto de partida de la teo- ría de la demostración que tiene el objetivo de buscar demostraciones análogas para teorías cada vez más fuertes. 5.6. Calculo Variacional: Las superficies minimales de Douglas (1931) Según la Eneida (I, 360-368), en el origen de la fundación de Carta- go se encuentra la solución a un problema de naturaleza matemática. La reina Dido, cuando huyó de Tiro y desembarcó en las costas del norte de África, obtuvo del rey local el permiso de escoger un peda- zo de tierra que fuese abarcado por la piel de un buey. Después de La Matemática del siglo XX 61 cortar de la piel una tira finísima, Dido la usó para delimitar un área lo más grande posible; su elección fue un trozo de tierra semicircular en la costa demar, para delimitar con la cuerda sólo una parte del pe- rímetro. Dido había intuido que el círculo es la figura que, a paridad de perímetro, tiene la máxima área: Jacob Steiner dio la primera de- mostración matemática en 1838, que fue completada por Weierstrass en 1872. Los problemas de este tipo se llaman de máximo o de mínimo, y en casos simples se pueden resolver fácilmente con los métodos del cálculo infinitesimal. Más precisamente, expresándolos en forma de función, y buscando los puntos críticos de ésta, anulando su deri- vada. En casos más complejos se necesitan técnicas más sofisticadas que fueron codificadas en el cálculo variacional, cuyo nombre deriva del hecho de que, en este caso, varía toda la función (δ f ) y no sólo una parte infinitesimal de la misma (d f ). Fue Galileo, en 1630, quien propuso el primer problema genui- namente variacional: encontrar, dados dos puntos no en vertical uno sobre el otro, la curva (llamada braquistócrona) que permita ir de un punto al otro en el menor tiempo posible. Galileo dio una solución equivocada, un arco de círculo. Jean Bernoulli volvió a proponer el problema en 1696, y fue resuelto correctamente por Newton, Leibniz y los hermanos Bernoulli; la solución es un arco de cicloide, es de- cir, la curva que describe un punto del borde de una circunferencia, mientras la circunferencia rueda sobre una rectasin deslizarse. Anteriormente, en el segundo libro de los Principia (“Comentario a la proposición 34”), Newton ya había encontrado la primera solu- ción correcta de un problema variacional: determinar cuál es la su- perficie de revolución que, moviéndose en el agua a velocidad cons- tante y en la dirección de su eje, ofrece la menor resistencia al movi- miento del agua. Él previo que la solución del problema podía ser de 62 5. Matemática Pura utilidad en la construcción de barcos y, en efecto, problemas seme- jantes se volvieron luego comunes en aeronáutica, en la construcción de submarinos y aeroplanos. El primer resultado fundamental del cálculo variacional fue ha- llado en 1736 por Euler, quien descubrió la ecuación diferencial que aún hoy fundamenta el cálculo, y que establece una condición nece- saria para la solución de un problema variacional (así como la anu- lación de la derivada es una condición necesaria para la solución de los problemas de máximo o mínimo). Más tarde, en 1744, Euler escri- bió un libro entero que ofrecía el primer tratamiento sistemático del tema. YaHerón deAlejandría había enunciado, en el siglo 1 d.C, el prin- cipio que indica que la luz semueve según recorridos queminimizan tanto el tiempo como el espacio. Y en el siglo XV, Leonardo da Vin- ci había manifestado que estaba convencido de que la naturaleza era “económica”. En 1744, Pierre Louis deMaupertuis se explayó y siste- matizó estas intuiciones en el principio de mínima acción: los fenóme- nos naturales ocurren minimizando la acción, es decir, el producto mvr de masa, velocidad y distancia. Aunque el concepto de acción deMaupertuis era poco preciso, su formulación expresó matemáticamente la intuición filosófica de que en la base del comportamiento de la naturaleza hay un principio va- riacional. Euler intuyó la posibilidad de derivar las leyes de la física a partir de tal principio, pero el primero en concretarla fue Lagrange, en 1761, quien definió correctamente la acción como ∫ mv ds o ∫ mv2 dt, y obtuvo una versión de la segunda ley del movimiento de Newton partiendo del principio de mínima acción. La formulación definitiva La Matemática del siglo XX 63 de la mecánica en esta forma fue obtenida por Wiliam Hamilton, en 1835, quien obtuvo las clásicas ecuaciones diferenciales que descri- ben posición y cantidad de movimiento, en función de la hamiltonia- na H que representa la energía. En 1847, el físico Joseph Plateau advirtió que si se sumerge un alambre con forma de curva cerrada en agua con jabón, cuando se lo extrae se forma en su interior una burbuja de jabón que constituye una superficie de área mínima respecto del perímetro definido por la curva. Por lo tanto, las pompas de jabón ofrecen una solución empí- rica al problema de encontrar una superficie de área mínima en los casos en que la forma del alambre es muy compleja, pero es difícil encontrar una solución explícita. Entonces surge espontáneamente el problema de Plateau: demos- trar que para toda curva cerrada en el espacio existe una superficie minimal que tiene la curva como perímetro. El problema parece va- go si no se especifica qué se entiende por curva cerrada, pero desde 1887 se puede adoptar la definición de Camille Jordan: una curva es el conjunto de los puntos cuyas coordenadas son imágenes de fun- ciones continuas de un parámetro en cierto intervalo. Y el problema de Plateau se interpreta haciendo referencia a esta definición. La solución debió esperar casi un siglo y la encontró Jessie Dou- glas en 1931, que por este trabajo obtuvo la medalla Fields en 1936, la primera vez que fue asignada. Otros trabajos sobre las superficies minimales remitieron que Enrico Bombieri obtuviera lamedalla Fields en 1974 y Ennio de Giorgi el premio Wolf en 1990. Es así como el cálcu- lo variacional ha visto subir sus acciones desde principios de siglo, cuando Hilbert pensaba que no había recibido el reconocimiento que merecía, y decidió llamar la atención hacia el cálculo variacional con el vigésimo tercer problema, el único de carácter general en su lista. Pero también el vigésimo y el decimonoveno problema se referían a cuestio- 64 5. Matemática Pura nes del cálculo variacional; más precisamente, a la existencia y al tipo (analítico) de las soluciones de una vasta clase de problemas varia- cionales (llamados regulares). El estudio de estos problemas condujo al desarrollo de una amplia área del análisis moderno. Volviendo a Plateau, uno de sus experimentos consistió en su- mergir dos veces en agua con jabón unos alambres con forma de cu- bo; sorprendentemente, la burbuja que se obtiene en este caso consis- te en una especie de hipercubo, es decir, una burbuja casi cúbica cen- tral, conectada con el cubo original de láminas planas (Figura 6). En general, láminas del mismo tipo llenan los huecos de las superficies de área mínima que se obtienen con pompas de jabón; la existencia de superficies de área mínima con un número arbitrario de huecos, y por lo tanto que se pueden obtener con pompas de jabón, fue demos- trada en 1987 por David Hoffman y William Meeks, basándose esta vez en representaciones gráficas computerizadas obtenidas en 1983 (Figura 7). Figura 6. Pompa de jabón hipercúbica. (De la película de Michelle Emmer, Pompas de jabón, c©2000 Emmer) La Matemática del siglo XX 65 Figura 7. Superficie minimal con huecos 5.7. Análisis: Las distribuciones de Schwartz (1945) Los griegos conocían, obviamente, algunas curvas especificas co- mo las secciones cónicas y varias espirales, pero jamás tuvieron la necesidad de considerar la noción de función de manera sistemática. Esta necesidad sólo surge con el nacimiento de la ciencia moderna; en efecto, el estudio del movimiento requería considerar una vasta clase de curvas, entre ellas naturalmente la parábola, la elipse y la cicloide, que son respectivamente las trayectorias descriptas por un proyectil, un planeta o un punto sobre una rueda que gira sobre un plano. Durante mucho tiempo, el único modo permitido para definir funciones fue a través de fórmulas, aunque la clase de fórmulas se enriqueció constantemente con el desarrollo de la matemática. En el siglo XVII, Descartes exigía limitarse a ecuaciones algebraicas, es de- cir, a polinomios de grado arbitrario en x e y. En el siglo XVIII, Euler, motivado por el estudio de la cuerda vibrante, permitió la conside- ración de expresiones analíticas que comprenden funciones trigono- métricas, exponenciales y logarítmicas; él las veía como versiones in- finitarías de funciones algebraicas, a través de expansiones en series 66 5. Matemática Pura de potencia. En el siglo XIX, Joseph Fourier, motivado a su vez por el estudio del calor, incluyó por fin también las series trigonométricas. La tesis fundamental de Fourier era que toda función se puede presentar, en un intervalo, mediante una serie trigonométrica. Fue precisamente en el intento de demostrar demostrar esta tesis cuando Peter Lejeune Dirichelet descubrió, en 1829, un famoso ejemplo de función no representable cuyos valores son 1 para argumentos irra- cionales. Esta función no estaba definida mediante fórmulas de ningún ti- po, pero en pocos años Dirichelet hizo de necesidad virtud: en 1837 propuso la definición de función que se utiliza todavía hoy, como co- rrespondencia que a cada argumento x asocia uno y sólo un valor y, independientemente del modo en que esta correspondencia esté definida. El paso de las funciones definibles a las funciones arbitrarias es, en cierta forma, análogo al paso de los números reales algebraicos a los arbitrarios; en ambos casos se provoca un incremento expo- nencial del número de elementos, la mayoría de los cuales será de todas maneras inaccesible a las descripciones, justamente por la li- mitación numérica de las mismas. Pero en la práctica, las funciones y los números de uso corriente tienden a ser definibles de algún mo- do explícito. Irónicamente, la misma función de Dirichelet no es una excepción, ya que Peano y René Baire demostraronque esa función se puede representar analíticamente mediante la expresión f (x) = lı́m m→∞ lı́m n→∞ cos(m!πx)n Motivado por sus estudios sobre el electromagnetismo, Oliver Heaviside introdujo, en 1893, la función impropia δ definida por es- tas dos propiedades: sus valores son siempre 0, excepto en el punto La Matemática del siglo XX 67 x = 0, en el cual el valor es infinito; y el área definida por el gráfico de la curva tiene valor 1. Considerada en sí misma la δ es obviamente paradójica, ya que difiere sólo en un punto de la función constante 0, que tiene integral 0, y cualquier valor asignado en ese punto no de- bería hacer cambiar el valor de la integral. Un solo valor, por si fuera poco indefinido e infinito, contribuye en cambio un área finita. Sin embargo, funciones impropias como la δ permiten expresar derivadas de funciones discontinuas. Por ejemplo, la misma δ puede ser considerada la derivada de la función H de Heaviside, que describe un impulso instantáneo unitario, y vale 0 para argumentos meno- res que 0, y 1 para los demás. La justificación de esta afirmación se obtiene mediante un procedimiento al límite: la δ es aproximada por una función que vale 0 casi siempre, excepto en un intervalo en torno del x = 0, en el cual el valor está determinado por la condición de que el área total sea precisamente 1; la H, en cambio, es aproximada por integrales de las aproximaciones de la δ, que valen precisamente 0 antes del intervalo y 1 después, pero que en el intervalo conectan estos dos valores de manera continua (Figura 8). Las nociones y los procedimientos eurísticos empleados por Hea- viside desataron un gran escándalo entre los matemáticos, e incluso fue expulsado de la Royal Society de Londres por indignidad teórica. Como consecuencia hoy la δ no se asocia con su nombre, sino con el de Paul Dirac, que la usó en 1930 en su clásico Principios de mecánica cuántica. Pero también Dirac recibió su dosis de críticas severas, especial- mente por parte de John von Neumann, autor de una formulación alternativa de la mecánica cuántica, de la que hablaremos más ade- lante. De todos modos, gracias a la reputación de Dirac, la δ se po- pularizó inmediatamente entre los físicos, y más tarde también entre los matemáticos. 68 5. Matemática Pura Figura 8. Aproximaciones de las funciones H y δ Una extensión del concepto de función que incluyera también las funciones impropias fue desarrollada por Laurent Schwartz a partir de 1945, en un estudio que culminó, en 1950, en los dos volúmenes de la Teoría de las distribuciones. Él desarrolló en particular las técnicas de diferenciación de las distribuciones, mostrando que toda función continua, en el sentido clásico, es derivable en el sentido de las distri- buciones, lo que también incluye casos patológicos como la curva de Koch, de la que hablaremos más adelante, que clásicamente no tiene en cambio derivada en ningún punto. Por este trabajo, Schwartz ob- tuvo la medalla Fields en 1950. Más tarde, se convirtió en uno de los famosos intelectuales franceses que tomó posición contra la guerra de Argelia, y su departamento fue volado con una bomba. Puesto que las distribuciones generalizan las funciones así como los números reales generalizan los números racionales, algunos pro- blemas clásicos referidos a las funciones se pueden extender a las dis- tribuciones. Por ejemplo, el ya citado decimonoveno problema de Hilbert se preguntaba qué operadores diferenciales sobre funciones tenían sólo soluciones analíticas, y en 1904 Serge Bernstein demostró que la respuesta era: los operadores elípticos. En su libro, Schwartz propuso extender el problema a los operadores diferenciales sobre distribu- ciones: la solución dada por Lars Hörmander llevó a la definición de La Matemática del siglo XX 69 la nueva e importante clase de los operadores hipoelípticos, y le valió la medalla Fields en 1962 y el premio Wolf en 1988. A propósito de operadores elípticos, uno de los resultados fun- damentales sobre ellos es el teorema del índice, demostrado en 1963 por Michael Atiyah e Isadore Singer. El índice de un operador mide la cantidad de sus soluciones, y se obtiene sustrayendo los números que determinan la existencia y la unicidad de las soluciones (el pri- mer número es la dimensión del sistema de relaciones lineares que una solución debe satisfacer, el segundo es la dimensión del espacio de todas las soluciones). El enunciado del teorema establece que el índice es en realidad un invariante topología), es decir, que no cam- bia si se perturba el espacio sobre el cual el operador está definido, lo que, por una parte, permite calcular el índice de manera alternativa y, por otra, crea un fecundo puente entre el análisis y la topología. La complicada demostración original requería las más diversas téc- nicas, desde la teoría del cobordismo de Thom, que mencionaremos más adelante, a la K-teoría desarrollada anteriormente por el mis- mo Atiyah, quien obtuvo por todos estos trabajos la medalla Fields en 1966. Más recientemente, el teorema del índice fue reinterpretado en términos de mecánica cuántica, y la teoría de cuerdas, a la que ha- remos referencia enseguida, permitió a Edward Witten proporcionar una demostración más simple y comprensible, que le valió la medalla Fields en 1990. 5.8. Topología Diferencial: Las estructuras exóticas de Milnor (1956) El hecho de que durante tiempo la Tierra haya podido ser con- siderada plana y de que así lo siga pareciendo cuando sólo se con- sideran zonas lo suficientemente pequeñas demuestra que una su- perficie como la esfera puede ser locamente euclídea, aunque no lo sea globalmente (técnicamente, se dice que la esfera es localmente 70 5. Matemática Pura difeomorfa, aunque no localmente isométrica, al plano). Una esfera, entonces, puede considerarse como una pelota de tra- po, constituida por un gran número de pequeñísimos parches prác- ticamente planos, que se sobre otros de manera uniforme y regular. Y la estructura de toda la pelota se puede reducir, por un lado, a la estructura de cada parche y, por el otro, a su posición respecto de un sistema de referencia canónico, como el retículo de los meridianos y los paralelos. Este modo de concebir las cosas permite extender a la esfera el cálculo diferencial, es decir, todo el instrumental de deri- vadas e integrales, que originalmente fue concebido y desarrollado para el plano euclídeo. En 1854, Bernhard Riemann introdujo una noción de variedad de Riemann en n dimensiones, que generaliza el enfoque anterior: se co- locan juntos, de manera uniforme y regular pequeñísimos trozos del espacio euclídeo en n dimensiones. Tal variedad admite una estruc- tura diferencial cuando es posible extender a ella el cálculo diferencial habitual, del espacio en n dimensiones, de manera análoga al modo mencionado para la esfera. Los trabajos de Kerékjártó en 1923, Rado en 1925 y Moise 1952 demostraron en conjunto que todas las variedades de Riemann, bi- dimensionales o tridimensionales, así como todos los espacios euclí- deos de dimensión distinta de 4, admiten una única estructura dife- rencial. Y se pensaba que así debía ser en general. Sin embargo, en 1956 John Milnor demostró que la esfera en 7 dimensiones admite más de una estructura diferencial, para ser más preciso, veintiocho. Por este inesperado resultado, que inauguró la nueva área de la topología diferencial y de las llamadas estructuras exóticas, Milnor recibió la medalla Fields en 1962 y el premio Wolf en 1989. En 1969, Michel Kervaire demostró, en cambio, que existen va- riedades en 10 dimensiones que no admiten ninguna es tructura di- La Matemática del siglo XX 71 ferencial. Junto con el resultado de Milnor, esto prueba que, por lo tanto, ni la existencia ni la unicidad una estructura diferencial están aseguradas en general. Una clasificación de las variedades diferenciales de dimensión mayor o igual a 5 fue encontrada en 1962 por Sergei Novikov, que por este trabajo obtuvo la medalla Fidelds, en 1970. Por lo tanto,los desarrollos recientes de la topología diferencial consideran la dimen- sión 4, que es el único caso en que el grupo de las rotaciones del espacio euclídeo no es simple (ya que es el producto de dos pares del grupo de rotación tridimensional). Los trabajos fundamentales en este campo son de Michael Freedman y Simon Donaldson, quie- nes obtuvieron por esos trabajos la medalla Fields en 1986. Por una parte, en 1982 Freedman demostró que a cada variedad tetradimensional se puede asociar una matriz entera simétrica con determinante igual a ±1, definida sobre la base de las propiedades de intersección de la variedad. Y viceversa, cada matriz de este tipo corresponde a una variedad. En otras palabras, estas matrices de- finen un invariante topológico que permite clasificar las variedades tetradimensionales. Dado que, ya en 1952, Rokhlin había demostrado que no todas las matrices pueden corresponder a variedades diferen- ciales, el resultado de Freedman prueba la existencia de variedades tetradimensionales que no admiten ninguna estructura diferencial. Por otra parte, en 1983 Donaldson probó que sólo las matrices correspondientes a variedades diferenciables son unitarias. También encontró otros invariantes, que permiten distinguir entre sí varie- dades diferenciables que son topológicamente equivalentes, demos- trando en particular la existencia de estructuras exóticas del espacio euclídeo tetradimensional, donde pueden ocurrir cosas extrañas; por ejemplo, a diferencia del espacio tridimensional, en el que toda zona cerrada y limitada está contenida en una esfera, hay zonas cerradas 72 5. Matemática Pura y limitadas que no están contenidas en una hiperesfera. Más tarde, en 1985, Taubes y Gompf demostraron que el espacio tetradimensio- nal admite no sólo infinitas estructuras exóticas, sino también una cantidad continua. Un aspecto interesante de los trabajos de Donaldson es que en ellos se utilizan métodos físicos para obtener resultados matemáti- cos, y esto inauguró una tendencia que alcanzó su punto máximo en los trabajos de EdwardWitten, al que haremos referencia en seguida. Sustancialmente, Donaldson reemplaza las ecuaciones de Maxwell y el grupo U(1) típicos del electromagnetismo por las ecuaciones de Yang-Mills el grupo SU(2), típicos de la teoría electrodébil, de la que hablaremos, y usa las solucionesminimales (llamadas instantones) co- mo instrumentos geométricos. Esto deja entrever la posibilidad de obtener otros resultados usando análogamente las mismas ecuacio- nes pero otros grupos, por ejemplo, el SU(3) típico de la cromodiná- mica. Volviendo a la topología diferencial, un problema todavía abierto es si la esfera en 4 dimensiones admite más de una estructura dife- rencial. Si la respuesta fuera negativa, entonces el teorema de Milnor sobre la esfera en 7 dimensiones sería lo mejor posible, en efecto, ya se sabe que las esferas en 2, 3, 5 y 6 dimensiones tienen una sóla es- tructura diferencial. De cualquier modo, el número de estructuras di- ferenciales de la esfera depende fuertement del número de dimensio- nes, aunque siempre sea finito en el caso distinto de 4; por ejemplo, en 8 dimensiones hay 2, en 11 dimensiones 992, en 12 dimensiones 1, en 15 dimensiones 16.256, en 31 dimensiones más de 16 millones... La Matemática del siglo XX 73 5.9. Teoría de los Modelos: Los Números Hiperreales de Robinson (1961) La primera aparición explícita de los infinitesimales en matemáti- ca se produjo en el siglo XV, cuando Nicola Cusano definió el círculo como un polígono de infinitos lados que poseen un largo infinitesi- mal, y dedujo el teorema de Arquímedes sobre el área del círculo en dos palabras: se descompone el círculo en infinitos triángulos de base infinitesimal y altura igual al radio; ya que el área de cada triángulo es base por altura dividido 2, el área del círculo será entonces la cir- cunferencia (o sea la suma de las bases de los triángulos) por el radio dividido 2. El problema de este enfoque reside, naturalmente, en el concep- to de triángulo infinitesimal; si su área es nula entonces también el círculo debería tener área nula; pero si su área no es nula, entonces el círculo debería tener área infinita; pero en ninguno de los dos casos se obtendría el resultado correcto. En 1629 Pierre de Fermat utilizó los infinitesimales en la defini- ción de derivada introducida por él como (medida de la inclinación de la) tangente de una curva en un punto. Él consideró una secan- te que pasa por dos puntos: el punto dado y otro punto que dista del primero un infinitesimal h. Y calculó la tangente (trigonométrica) de la tangente (geométrica) como relación incremental, en modo se- mejante a como se hace actualmente. Por ejemplo, en el caso de una parábola: (x+ h)2 − x2 h = 2xh+ h2 h = 2x+ h = 2x En este caso, h se considera distinto de 0 cuando se lo simplifica como divisor, pero igual a 0 cuando se lo elimina luego en el final; un procedimiento que no podía no provocar serias dudas acerca de su 74 5. Matemática Pura consistencia. En 1635, Bonaventura Cavalieri utilizó los infinitesimales en la definición de integral, introducida por él para calcular áreas y volú- menes. Siguiendo las huellas de Cusano, consideró las figuras geo- métricas como compuestas por infinitos indivisibles: las curvas por puntos, como “las perlas de un collar”; las superficies por segmentos paralelos, como “los hilos de una tela”; y los sólidos por superficies paralelas, como “las páginas de un libro”. Pero a diferencia de per- las, hilos y páginas, las dimensiones de estos indivisibles eran una vez más infinitesimales. Si bien Leibniz y Newton lograron madurar las ideas introduci- das por Fermat y Cavalieri, desarrollando una auténtica nueva me- todología para la solución de problemas matemáticos y físicos, no pudieron hacer mucho responder a las objeciones que surgieron por el uso “fantasmas de cantidades desaparecidas” como los llamó el obispo Berkeley en una despiadada crítica. En particular, Leibniz fundó todo el cálculo sobre la noción de infinitesimal, que él veía como una cantidad evanescente, pero no desvanecida (hoy diríamos, simplemente no arquimediana), o sea, más pequeña que cada fracción 1n , pero no nula. Y aún hoy quedan huellas de su enfoque, tanto en el nombre de cálculo infinitesimal dado a la nueva disciplina, como en las notaciones que inventó para derivadas e integrales: d f (x) dx y ∫ f (x) dx Es decir, la derivada está representada como relación dedos infi- nitesimales (d es la inicial de “diferencia”), y la integral como suma de indivisibles de largo infinitesimal (el símbolo ∫ es la estilización de S, que es la inicial de “suma”). El uso simétrico de d y ∫ recuerda La Matemática del siglo XX 75 el teorema fundamental de Newton y Leibniz, según el cual deriva- das e integrales son operaciones inversas, justamente como suma y resta. Mientras la aproximación de Leibniz al cálculo a través de los in- finitesimales reflejaba su preocupación principal que era filosófica y relacionada con los constituyentes últimos de la realidad (las móna- das), la de Newton, en cambio, reflejaba las aplicaciones fundamen- tales que él tenía en mente, que eran físicas y estaban vinculadas a la medición del cambio (la velocidad). A diferencia de Cavalieri, New- ton Veía las figuras geométricas como generadas por movimientos continuos, las curvas por puntos, las superficies por segmentos, los sólidos por superficies. Para él, la derivada no era la relación estática de dos infinitesimales, sino la “fluxión” dinámica de una cantidad “fluyente”. Y en los Principia declaró explícitamente: “Las relaciones finales en las que ciertas cantidades se desvanecen no son, hablan- do estrictamente, relaciones de cantidades finales, sino límites a los cuales se aproximan tales relaciones, disminuyendo sin fin”. Augustin Cauchy retomó esta idea en 1821, y basó todo el cálcu- lo en el concepto de límite. En su formulación, que es la actual, el ejemplo de Fermat resulta: lı́m h→0 (x+ h)2 − x2 h= lı́m h→0 2xh+ h2 h = lı́m h→0 (2x+ h) = 2x. De esta manera, la simplificación del número h está justificada por el hecho de que es una cantidad distinta de 0, mientras su elimi- nación se sustituye con un límite en el que h tiende a 0, sin que sea necesario considerarlo igual a 0. En otras palabras, los infinitesimales son variables y no constantes. Karl Weierstrass, en 1859, dio la definición precisa de límite en los términos actualmente usuales de “ǫ − δ”, y sobre estas bases se pudo 76 5. Matemática Pura considerar concluida la sistematización del análisis. Pero en la defi- nición no explicaba los infinitesimales, simplemente los había elimi- nado, a costa de una considerable complicación de los fundamentos del cálculo. La rehabilitación de los infinitesimales se produjo en 1961, cuan- do Abraham Robinson demostró que los métodos de la lógica ma- temática, especialmente el llamado teorema de compacidad, permi- ten encontrar una clase de números hiperreales que tienen las mismas propiedades que los números reales, pero contienen, además de los números reales habituales, también sus variantes infinitesimales (de manera análoga a como los números reales contienen, además de los números enteros, también sus variantes decimales). El análisis clásico de los números reales se puede extender a un análisis no estándar de los números hiperreales, en cuyo ámbito el cálculo del ejemplo de Fermat resulta perfectamente correcto, h es efectivamente distinto de 0, y por lo tanto se puede dividir por el mismo; y aunque 2x+ h y 2x sean números hiperreales distintos, tie- nen las mismas partes reales (así como dos números decimales pue- den ser distintos, pero tener la misma parte interna), y, por lo tanto, son iguales desde el punto de vista de los números reales. Los números reales pueden verse como una completación de los números racionales obtenida pasando números cuyo desarrollo de- cimal es finito o periódico, a números cuyo desarrollo es infinito. De manera análoga, los números hiperreales se pueden ver como una completación de los números reales, obtenida pasándolos a números cuyo desarrollo es doblemente infinito. Esto hace pensar en ulteriores completitudes, con números cuyo desarrollo decimal sea cada vez más largo. En 1976, John Conway introdujo los números surreales, cuyo desarrollo decimal se extiende por todos los infinitos traducidos por Cantor, del que hablaremos La Matemática del siglo XX 77 enseguida; de este modo se obtiene en un sentido preciso, la máxima completitud posible de los números reales. 5.10. Teoría de Conjuntos: El Teorema de Independencia de Cohen (1963) El primer problema de Hilbert, al que indudablemente él conside- raba el más importante, preguntaba simplemente cuántos eran los números reales. Naturalmente, desde un punto de vista intuitivo, la respuesta a la pregunta de Hilbert es obvia: los números reales son infinitos. Pero Cantor había demostrado que no se puede hablar simple- mente de “infinito”, como si fuera un concepto bien definido: de he- cho, ¡no sólo existen varios tipos de infinitos, sino que existen infini- tos!. Para darle un sentido a la pluralidad de infinitos, él había redes- cubierto un enfoque abstracto para comparar la cantidad de elemen- tos de dos conjuntos cualesquiera, que ya había sido usado en 1851 por Bernhard Bolzano, y anticipado por Duns Scoto en el siglo XIII y por Galileo en 1638. La idea es que dos conjuntos tienen el mismo número de elemen- tos si pueden ponerse en correspondencia biunívoca, es decir, si es posible unir elementos de uno a elementos del otro, de manera tal que todos los elementos de cada conjunto tengan una y sólo una pa- reja. Por ejemplo, las clases de las sillas y las personas que están en una habitación tienen el mismo número de elementos si ninguna si- lla está vacía y todas las personas están sentadas, sí cada uno ocupa un solo lugar y no lo comparte. Y un conjunto tiene un número de elementos menores que otro si el primero se puede poner en correspondencia biunívoca con una parte del segundo, pero el segundo no se puede poner en correspon- dencia biunívoca con el primero. Por ejemplo, un par tiene una canti- 78 5. Matemática Pura dad menor de elementos que una terna, una terna que una cuaterna, una cuaterna que una quinterna, y así sucesivamente. De este modo se pueden distinguir fácilmente entre sí los conjuntos finitos que tie- nen distinta cantidad de elementos, así como los conjuntos finitos de los infinitos. Pero es natural pensar que, con respecto a los conjuntos infinitos, éstos son todos equivalentes, y los primeros resultados de Cantor iban precisamente en esta dirección. Por ejemplo, él demostró que los números enteros positivos y negativos pueden colocarse en co- rrespondencia biunívoca sólo con los números enteros positivos, or- denándolos de la siguiente manera: 0, 1,−1, 2,−2, 3,−3, . . . Análogamente, como ya había notado John Farey en 1816, los nú- meros racionales (positivos) pueden ponerse en correspondencia bi- unívoca con los números enteras (positivos), ordenándolos sobre la base de la suma de nominador y denominador del siguiente modo: 1 1 , 1 2 , 2 1 , 1 3 , 1 4 , 2 3 , 3 2 , 4 1 , . . . (las repeticiones podrían eliminarse fácilmente si se quisiera). En 1874 Cantor descubrió, en cambio, que no es posible poner en correspondencia biunívoca los números reales con los números ente- ros, cualquier lista de números reales debe estar incompleta, porque no contiene los números reales que tengan la primera cifra decimal distinta de la primera cifra decimal del primer número de la lista, la segunda cifra distinta de la segunda cifra del segundo número, y así sucesivamente. Entonces, los números reales son más que los números enteros La Matemática del siglo XX 79 y, con una demostración análoga a la anterior, denominada método diagonal, Cantor demostró, en 1891, que para cada conjunto infinito se puede encontrar otro que tiene una mayor cantidad de elementos. Ya que puede demostrarse que el infinito de los números ente- ros es el más pequeño posible, el infinito de los números reales es mayor que él. La pregunta natural es si ése es el infinito que viene inmediatamente después o si, en cambio, hay otros en el medio; en otras palabras, si existen subconjuntos de números reales que tengan más elementos que los números enteros, pero menos que los núme- ros reales. En 1883 Cantor conjeturó que no, y esta afirmación se co- noció como hipótesis del continuo (“continuo” es el nombre con el que a veces se indica el conjunto de los números reales). El primer resultado sobre este problema lo obtuvo Kurt Gödel en 1938. Basándose en la frase de Wittgenstein “de lo que no se pue- de hablar hay que callar”, decidió acotar la atención a los conjuntos constructibles, los únicos de los que se puede hablar en un preciso lenguaje jerarquizado. El descubrimiento de Gödel fue que los con- juntos constructibles constituyen un universo que satisface todos los axiomas de Zermelo y Fraenkel, y también la hipótesis del continuo. Esto significa que su negación no puede derivarse de los axiomas, a menos que sean contradictorios. En otras palabras, la hipótesis del continuo es consistente con la teoría de los conjuntos, en el sentido de que no puede ser refutada. Paul Cohen, en 1963, obtuvo un resultado complementario al de Gödel. Esta vez, él decidió ampliar la atención a conjuntos genéricos, que satisfacen todas las propiedades típicas de la teoría de los con- juntos. El descubrimiento de Cohen fue que el agregado de conjuntos genéricos a los conjuntos constructibles genera universos que satis- facen todos los axiomas de Zermelo y Fraenkel y, en algunos casos, también la negación de la hipótesis del continuo; esto significa que 80 5. Matemática Pura no se puede derivar de los axiomas, a menos que no sean contradic- torios. En otras palabras, la hipótesis del continuo es independiente de la teoría de los conjuntos, en el sentido de que no puede ser ni proba- da ni, como ya había demostradoGödel, refutada. Por este resultado Cohen obtuvo la medalla Fields en 1966. Entonces está resuelto el primer problema de Hilbert, y la solu- ción es que no puede ser resuelto con las nociones de teoría de los conjuntos que hoy son de uso común, lo que, obviamente, no implica que en el futuro no puedan sumir extensiones de estas nociones que parezcan igualmente naturales pero que permitan decidir la hipóte- sis del continuo en un sentido u otro. Por ahora debemos conformar- nos con separar los resultados probados en la teoría de los conjuntos usando la hipótesis del continuo (o su negación), de los resultados que no la utilizan. 5.11. Teoría de Singularidades: La Clasificación de las Catástrofes de Thom (1964) La manera más sencilla de describir curvas en el plano en forma analítica es mediante polinomios x e y, que definen las llamadas cur- vas algebraicas. En 1637, Descartes descubrió que los polinomios de primer grado describen las rectas, y los de segundo grado las seccio- nes cónicas ya estudiadas por los griegos, es decir, hipérbola, elipse y parábola; su nombre deriva del hecho de que todas esas secciones se pueden obtener por proyección y sección de un círculo, en el sentido de que proyectando el círculo desde un punto se obtiene un cono, y seccionando el cono se obtienen las secciones cónicas. Los polinomios de tercer grado definen las cúbicas, cuyo estudio se pudo retomar sólo con los nuevos métodos del cálculo infinitesi- mal. Newton descubrió, en 1676, que los tipos de cúbicas son aproxi- madamente ochenta, y todos se pueden obtener por proyección y La Matemática del siglo XX 81 sección de las curvas elípticas, llamadas así por su rol en el cálculo del largo de arcos de elipse (una elipse no es una curva elíptica), y cuya forma general es: y2 = ax3 + bx2 + cx+ d. El asunto es interesante porque sólo existen cinco posible, tipos de curvas elípticas, clasificados sobre la base de los posibles ceros del polinomio de tercer grado a la derecha del igual (Figura 9). Más precisamente, se obtienen cuatro casos cuando los tres ce- ros son todos reales; si son todos distintos, la curva es de dos piezas, de las cuales una es cenada; si coinciden dos ceros, pueden ser me- nores que el restante, en cuyo caso constituyen un punto aislado, o mayores, en cuyo caso forman un nudo; si los tres ceros coinciden, se obtiene una cúspide. El quinto caso se obtiene cuando hay ceros complejos, que deben ser dos y distintos, porque un polinomio de tercer grado de coeficientes reales siempre tiene un cero real, y los ceros complejos siempre vienen en pares, entonces la curva queda formada por una sola pieza lisa. En cada punto de una sección cónica la tangente es única y la cur- va está de un solo lado de la misma, pero para curvas más complejas, estas propiedades pueden no valer; cuando esto ocurre, nos encon- tramos ante puntos singulares. Estos puntos ya losmuestran las curvas elípticas: en los nudos y en las cúspides hay dos tangentes, en el pri- mer caso distintas y en el segundo coincidentes; en las flexiones la curva pasa de un lado al otro de la tangente, cambiando concavidad. En 1740, el abad Jean Paul de Gua de Malves probó que, en gene- ral, todos los puntos singulares de las curvas algebraicas se obtienen componiendo nudos, cúspides y flexiones, de distintas maneras. El estudio de las curvas no algebraicas es más difícil y es un obje- tivo de la teoría de la singularidad deducir el comportamiento global 82 5. Matemática Pura y = cúbica b b b y2 = cúbica 3 ceros reales distintos b b b b b 3 ceros coincidentes menores que el 3o b b b b 2 ceros coincidentes menores que el 3o b b b 3 ceros coincidentes b b 2 ceros complejos b Figura 9. Clasificación de las curvas elípticas La Matemática del siglo XX 83 de la curva a partir del conocimiento local de sus puntos singulares. Más en general, se trata de clasificar familias de curvas o super- ficies reduciéndolas a un número restringido de tipos determinados por su singularidad, de manera análoga a la clasificación de las cúbi- cas mencionada anteriormente. La noción de derivada permitió inmediatamente, a Fermat en 1638 y a Newton en 1665, estudiar las curvas lisas, es decir, las que tienen derivada en todos los puntos, y cuyos puntos singulares son aquéllos en los que la primera derivada es nula. Las curvas lisas se pueden reducir, mediante deformaciones locales, a las curvas lisas que tienen a lo sumo puntos singulares regulares, es decir en las que la segunda derivada no es nula: en esos puntos la curva es aproxima- da por un monomio de segundo grado, es decir, por una parábola; y dependiendo de que el signo sea positivo o negativo, la parábola está dirigida hacia arriba o hacia abajo, y por lo tanto, el punto singular es un mínimo o un máximo. Por ejemplo, la cúbica x3 tiene un punto singular no regular, es decir, una flexión, en el origen, donde la tan- gente es horizontal; pero basta una mínima rotación de la tangente para transformarla en una curva de tipo x3 + x, sin puntos singula- res, o en una de tipo x3 − x, con un máximo y un mínimo (Figura 10). En 1934, Marston Morse amplió estos resultados de las curvas a las superficies a n dimensiones. Probó que las superficies lisas se pue- den reducir, mediante deformaciones locales llamadas difeomorfis- mos, a superficies lisas que tienen a lo sumo puntos singulares regu- lares; en estos puntos la superficie es aproximada por una suma al- gebraica de monomios de segundo grado en cada variable, es decir, por una superficie con forma de montura, cuyo tipo está determina- do por la cantidad de monomios con signo positivo o negativo, es decir, por la cantidad de direcciones hacia las que se dirige la mon- 84 5. Matemática Pura tura para arriba o abajo. El teorema de Morse caracteriza completamente los puntos sin- gulares regulares y, por lo tanto, deja abierto el problema de la carac- terización de los que no son regulares; estos últimos se denominan catástrofes porque corresponden a bifurcaciones radicales en el com- portamiento del sistema, y el estudio de las superficies con puntos singulares no regulares es el objeto de la teoría de las catástrofes desa- rrollada por René Thom. x3 − x x3 x3 + x Figura 10. En el caso de las curvas lisas, las únicas catástrofes son las flexio- nes, en este caso la curva es plana porque atraviesa la tangente hori- zontal. En el caso de las superficies en n dimensiones, existen varias posibilidades, según el número de direcciones en que la curva es pla- na, llamado corrango y del mínimo número de deformaciones necesa- rias para eliminar las irregularidades, llamado codímensión; por ejem- plo, la cúbica x3, que ya mencionamos, obviamente tiene corrango 1, y también tiene codimensión 1, porque alcanza con agregarle un so- lo término para eliminar su flexión. Inspirado en un trabajo de 1947 de Hassler Whitney, premio Wolf en 1982, acerca de las cúspides, en 1964 Thom conjeturó que corrango y codimensión son suficientes pa- ra clasificar las catástrofes. Más precisamente, que si la codimensión La Matemática del siglo XX 85 es menor o igual a 4 las catástrofes sólo son de siete tipos: cuatro de corrango 1, pliegues, cúspides, colas de golondrinas y mariposas; y tres de corrango 2, pirámides, portafolios y hongos (Figura 11). En el caso de codimensiones mayores, en cambio, las catástrofes resultan infinitas. La conjetura de Thom fue comprobada por John Mather en 1966. pliegue cúspide cola de golondrina mariposa ombligo elíptico (pirámide) ombligo hiperbólico (portafolio) ombligo parabólico (hongo) Figura 11. Clasificación de las catástrofes Lo interesante de la teoría de las catástrofes está en el hecho de que fue uno de los primeros instrumentos matemáticos que parecie- ron capaces de poner orden en el caos, y describir regularidades del comportamiento irregular. En 1972, el mismo Thom inauguró, en su influyente libro Estabilidad estructural y morfogénesis, sus aplicaciones al estudio de los fenómenos más dispares, desde laformación de los embriones hasta el estallido de las revolucione que después fueron llevadas al extremo por Christopher Zeeman. Desde este punto de vista aplicativo, la teoría de las catástrofes en la actualidad ha sido superada doblemente. Primero por la teoría de las estructuras disipativas y por la termodinámica de los fenóme- nos irreversibles de Ilya Prigogine, que le valieron el premio Nobel de química en 1977. Y más tarde, por las teorías del caos y de la dinámica de los sistemas inestables, de las que hablaremos más adelante. 86 5. Matemática Pura 5.12. Álgebra: La Clasificación de los Grupos Finitos de Gorenstein (1972) Se sabe desde los tiempos de los babilonios que existe una simple fórmula algebraica que permite calcular las soluciones de cualquier ecuación de segundo grado ax2 + bx+ c = 0 y precisamente: x = −b± √ b2 − 4ac 2a En el siglo XVI, varios matemáticos italianos, entre ellos Niccolò Fon- tana (llamado Tartaglia), Gerolamo Cardano y Ludovico Ferrari, en- contraron fórmulas algebraicas que permiten calcular las soluciones de cualquier ecuación de tercer o cuarto grado. Pero Paolo Ruffini, en 1799, y Niels Abel, en 1824, demostraron que no existen formulas al- gebraicas que permitan calcular las soluciones de cualquier ecuación de quinto grado. En 1832, Evariste Galois resolvió el problema general de decidir cuáles ecuaciones se pueden resolver mediante fórmulas algebrai- cas. Para formular su teoría, Galois introdujo el concepto de grupo de permutaciones de las soluciones, entendiendo permutación de un conjunto de elementos simplemente como un modo de volver a dis- ponerlos; por ejemplo, 2-3-1 es el resultado de una permutación de 1-2-3. En 1849, Auguste Bravais, estudiando problemas de cristalogra- fía, introdujo el concepto análogo de grupo de simetría En este caso se consideran las transformaciones geométricas que mantienen invaria- da una figura respecto de ciertos criterios; por ejemplo, las simetrías de rotación de un polígono regular en el plano, o de un poliedro re- gular en el espacio. Grupos de simetría particularmente interesantes La Matemática del siglo XX 87 son los referidos a las rotaciones del círculo o de la esfera, que son infinitas (porque el ángulo de rotación puede ser cualquiera); en este caso se obtienen ejemplos de los grupos de Lie que analizaremos más adelante. Como ya demuestran los ejemplos citados, grupos de distinta na- turaleza aparecen naturalmente en distintas áreas de la matemáti- ca, y en 1849 Arthur Cayley introdujo el concepto de grupo abstracto, constituido por un conjunto de elementos y por una operación tales que: primero, la aplicación repetida de la operación a elementos del conjunto produce otra vez elementos del conjunto; segundo, existe un elemento llamado “neutro”, que desempeña respecto de la ope- ración el mismo rol que 0 o 1 desempeñan respecto de la suma o el producto; tercero, la operación se puede “invertir”, del mismo modo en que la sustracción o la división invierten la suma o la multiplica- ción; cuarto, la operación es asociativa, en el mismo sentido en que lo son la suma o la multiplicación, es decir a+ (b+ c) = (a+ b) + c y a · (b · c) = (a · b) · c En general, no es necesario que la operación también sea conmutati- va, en el sentido en que lo son la suma y el producto, o sea a+ b = b+ a y a · b = b · a pero, si lo es, se obtiene un grupo abeliano. La generalidad del concepto de grupo hace que resulte fácil de aplicar pero, al mismo tiempo, difícil de caracterizar. Una simplifi- cación esencial, realizada por Galois, consiste en definir la clase de los grupos simples, que son los constituyentes elementales de los gru- pos en el mismo sentido en que los números primos lo son para los enteros, es decir, se introduce una operación de factorización de gru- 88 5. Matemática Pura pos, y los grupos simples son los que admiten como factores sólo a sí mismos o al grupo unitario (constituido por un solo elemento). En- tonces, el problema de la clasificación de los grupos se reduce al de la clasificación de los grupos simples. El primer paso fue la clasificación de los grupos continuos de trans- formaciones, introducidos en 1874 por Sophus lie, llamados grupos de Lie, en su honor. Pueden definirse como aquellos grupos que admiten un sistema de coordenadas locales respecto del cual las operaciones de grupo resultan analíticas. La teoría de los grupos de Lie, que invo- lucra al álgebra, la topología y el análisis ya desde su definición, ha sido y sigue siendo fuente de problemas profundos y difíciles. Uno de éstos, el quinto problema de Hilbert preguntaba si todo grupo lo- calmente euclídeo (es decir, que admite un sistema de coordenadas locales) era un grupo de Lie, y fue resuelto afirmativamente en 1952 por Gleason, Montgomery y Zippin. Aunque un grupo de Lie sea infinito, es posible identificar sus elementos especificando sólo un número finito de parámetros, que se llama dimensión del grupo. Por ejemplo, el grupo de las rotaciones del círculo, que se indica tanto con U(1) como con SO(2), tiene di- mensión 1 porque basta especificar el ángulo de rotación. En cambio el grupo de las rotaciones de la esfera, que se indica con SO(3), tie- ne dimensión 3 porque se necesita especificar tanto el eje de rotación (que puede ser identificado por latitud y longitud) como el ángulo de rotación. La clasificación de los grupos simples de Lie fue esbozada por Wilhelm Killing, en 1888, y perfeccionada por Elie Cartan en 1894. Se descubrió, ante todo, que hay cuatro familias infinitas todas cons- tituidas por grupos cuyos elementos son matrices de n líneas y n columnas, y que se distinguen sobre la base de las propiedades de éstas; por ejemplo, SO(n) y SU(n) son, respectivamente, los grupos La Matemática del siglo XX 89 formados por las matrices Especiales Ortogonales y por las matrices Especiales Unitarias1. Además, existen cinco grupos esporádicos que no entran en ninguna de las cuatro familias, y constituyen excepcio- nes llamadas G2, D4, E6, E7 y E8, que respectivamente tienen dimen- sión 14, 52, 78, 133 y 248. La teoría de los grupos de Lie es el lenguaje que hoy permite ex- presar las teorías de campo unificadas de la física de las partículas. Más precisamente, se ha descubierto que las fuerzas electromagnéti- ca, nuclear débil y nuclear fuerte respetan particulares simetrías de rotación de fase de los campos, de cambio de carga de las partícu- las y de cambio de colores de los quark, y que las propiedades de estas simetrías son descriptas por los grupos de Lie U(1), SU(2) y SU(3). Las dimensiones respectivas de estos grupos son 1, 3 y 8, y corresponden al número de bosones que transmiten las tres fuerzas: 1 fotón, 3 bosones débiles y 8 gluones. El primer intento de descripción matemática de estas simetrías fue realizado por Chen Ning Yang y Robert Mills en 1954, quienes usaron el grupo SU(2) para la descripción de algunas simetrías de las interacciones fuertes (en vez de débiles), dando el primer ejem- plo de las que actualmente se llaman ecuaciones de Yang-Mills. El segundo intento fue efectuado por Murray Gell-Mann en 1961, que usó el grupo SU(3) para la descripción de las simetrías de los sabo- res (en vez de los colores) de los quark, lo que le valió el premio Nobel de física en 1969. La identificación en 1968 de U(1) × SU(2) como grupo característico de la teoría electrodébil, por parte de Sheldon Glashow, Abdus Salam y StevenWeinberg les valió el premio Nobel de 1Los nombres derivan del hecho de que las transformaciones lineales determi- nadas por matrices unitarias preservan la unidad de largo, es decir, la distancia, mientras aquellas que están determinadas por matrices ortogonales preservan tam- bién la ortogonalidad. Técnicamente, una matriz es especial si su determinante es igual a 1, ortogonal si el producto con su transpuesta es la identidad, y unitaria si el producto con tu transpuesta conjugada es la identidad. 90 5. Matemática Pura física en 1979. Finalmente, SU(3) fue identificadoen 1973 por Wein- berg, David Gross y FrankWilczek como el grupo característico de la cromodinámica. Por lo tanto, el progreso hacia la unificación final de las fuerzas fí- sicas pasa a través de la determinación de un apropiado grupo de Lie que contenga el producto U(1) × SU(2)× SU(3). El mínimo grupo simple de Lie que satisface matemáticamente el requisito es SU(5), de 24 dimensiones, pero no parece apropiado físicamente, pues la gran unificación que se basa en ese grupo prevé fenómenos inciertos como una decadencia demasiado veloz del protón y la existencia de monopolios magnéticos. El grupo al que se apunta hoy para la de- nominada teoría del todo, que también comprenda la gravedad, es en cambio una doble pareja del máximo grupo esporádico E8 que al te- ner doble dimensión de 248, prevé la existencia de 496 bosones de campo, de los que, sin embargo, sólo se conocen actualmente los 12 ya mencionados. En lo que respecta a la clasificación de los grupos simples fini- tos, el asunto resulta más complicado que en los grupos de Lie. A finales del siglo XIX se conocían seis familias infinitas, y cinco grupos esporádicos descubiertos en 1861 por Émile Mathieu en el estudio de geometrías finitas, de los cuales el más grande tenía alrededor de 250.000.000 de elementos. De las seis familias, cuatro eran los análogos de las familias de grupos de Lie. La quinta familia era la de los grupos cíclicos, es decir, los enteros módulo n, de los que ya hemos hablado, los grupos cícli- cos simples son exactamente aquellos que tienen un número primo de elementos. La sexta familia era la de los grupos alternos, definidos por Galois. La primera observación de partida es que, en realidad, cada permuta- ción se puede obtener mediante sucesivo cambios de elementos con- La Matemática del siglo XX 91 secutivos, por ejemplo, la permutación 2-3-1 se puede obtener de 1- 2-3 cambiando entre ellos primero los primeros dos elementos (2-1-3) y (2-3-1). Los grupos alternos están constituidos por las permutacio- nes que se obtienen mediante un número igual de sucesivos cambios de elementos, como en el ejemplo mencionado. Y los grupos alternos que se obtienen de las permutaciones en un conjunto con un núme- ro de elementos mayor que 4 son todos simples (Galois demostró que este hecho determina precisamente la imposibilidad de encon- trar fórmulas algebraicas para resolver en general las ecuaciones de grado superior al cuarto). Nuevas familias fueron encontradas en 1957 por Claude Cheva- lley, en particular, cada grupo esporádico de Lie originó una familia entera de análogos definidos en campos finitos. Nuevos grupos es- porádicos fueron encontrados en 1965 por Zvonimir Janko. Estos re- sultados abrieron una fase de descubrimiento, que condujo a la iden- tificación de 18 familias y 26 grupos esporádicos, entre los cuales, el más grande es un monstruo de aproximadamente 1054 elementos. Como en la física de las partículas, frecuentemente los nuevos gru- pos fueron primero previstos teóricamente, y después “observados en laboratorio”. Por ejemplo, el monstruo que acabamos de mencio- nar fue previsto en 1973 por Bernd Fischer y Robert Griess, y fue construido (¡a mano!) por Fischer en 1980. Pero el auténtico problema era demostrar que las 18 familias y los 26 grupos esporádicos constituyen la clasificación buscada, en el sentido de que cada grupo simple finito o está en una de las familias o es uno de los grupos esporádicos. El proyecto para solucionar es- te problema lo enunció Daniel Gorenstein en 1972; la demostración, terminada en 1985, necesitó la colaboración de un centenar de mate- máticos, ocupa 500 artículos con un total de 15.000 páginas y tiene el récord de complejidad en la historia de la matemática. 92 5. Matemática Pura El programa de Gorenstein procede por casos, reduciendo las po- sibilidades a un centenar y demostrando, para cada una, un teorema de clasificación reducido. Uno de los casos más importantes es el de los grupos simples con una cantidad impar de elementos; para la segunda conjetura de Burnside, de 1906, deben ser exactamente los gru- pos cíclicos con un número primo de elementos (mayor que 2). La conjetura fue demostrada en 1962 por Walter Feit y John Thompson, en un artículo de 250 páginas, y por este trabajo Thompson obtuvo la medalla Fields en 1970 y el premio Wolf en 1992. De todos modos, la clasificación de los grupos finitos no es el fi- nal de la historia. Por ejemplo, la primera conjetura de Burnside, de 1902, preguntaba si todo grupo que tuviera un número finito de ge- neradores (todo elemento es una combinación de ellos) y que fuera periódico de orden n (después de n combinaciones con sí mismo, ca- da elemento se neutraliza) es finito. Ya que el viceversa es obvio, la conjetura habría caracterizado completamente a los grupos finitos, pero fue refutada en 1968 por Petr Novikov (padre de Sergei,medalla Fields en 1970) y S. I. Adian. . Una versión reducida de la conjetura, ya reformulada en los años 1930, se conforma con requerir la finitud, no del grupo en sí mismo, sino sólo del número de sus cocientes finitos, y fue demostrada en 1991 por Efim Zelmanov, quien obtuvo por este trabajo la medalla Fields en 1994. Comprobó el caso en que n es una potencia de un número primo, y el caso general se puede conducir a éste mediante el teorema de clasificación de los grupos finitos (no se conoce una demostración más directa de la conjetura). 5.13. Topología: La Clasificación de las Superficies Tridimensionales de Thurston (1982) Uno de los grandes éxitos matemáticos del siglo XIX fue la clasi- ficación de las superficies bidimensionales cerradas desde un punto La Matemática del siglo XX 93 de vista topológico, es decir, considerándolas como si fueran envol- torios de goma que se pueden deformar a gusto, pero sin romperlos. Desde este punto de vista abstracto, un globo inflado y uno desinfla- do son la misma superficie, aunque desde el punto de vista externo uno pueda parecer una esfera y el otro una hoja replegada o enros- cada. En cambio, un globo y un salvavidas son superficies distintas, porque no se puede deformar el globo para que parezca un salvavi- das sin romperlo. La clasificación utiliza esencialmente el concepto de superficie no orientable, descubierto en 1858 por Johann Listing y Augustus Moe- bius. El ejemplo más conocido es la llamada cinta de Moebius, que ya aparece en mosaicos romanos del siglo III: se toma una cinta rec- tangular de papel, se la hace dar una media vuelta en el sentido del largo, y luego se pegan entre sí los dos lados cortos (si no se hace dar la media vuelta se obtiene un cilindro). La cinta de Moebius tiene un solo lado y un solo borde (Figura 12). Además, no es orientable, en el sentido de que en la cinta no se pueden distinguir el sentido horario y antihorario (o las manos derecha e izquierda): un trompo que gire en cierto sentido y recorra toda la cinta, cuando vuelva al punto de partida quedará girando en la dirección opuesta. Los trabajos de Riemann en 1857, Moebius en 1863 y Félix Klein en 1882 llegaron a demostrar todos juntos que toda superficie bidi- mensional cerrada es equivalente, desde un punto de vista topoló- gico, a exactamente una de las superficies de dos familias infinitas. La primera familia consiste en la esfera, y en las superficies (orien- tables) que se obtienen agregando a la misma un número finito de aros; un caso particularmente interesante es la esfera con un solo aro, que equivale a la superficie con forma de rosca llamada toro (Figura 13). En particular, las superficies bidimensionales orientables están completamente determinadas por el número de sus huecos (Figura 94 5. Matemática Pura 14). La segunda familia consiste en las superficies (no orientables) que se obtienen de la esfera separando un número finito de círcu- los y sustituyéndolos con otras tantas cintas de Moebius (lo cual se puede realizar, porque la cinta tiene un solo borde); dos casos parti- cularmente interesantes son las esferas a las que se aplicaronuna o dos cintas, que equivalen respectivamente a las superficies llamadas plano proyectivo y botella de Klein (Figura 15). Existen tres tipos de geometría posibles para una superficie bidi- mensional, la euclídea usual, la hiperbólica y la esférica (esta última difiere sustancialmente de las otras dos, porque en ella no hay rec- tas paralelas, dos círculos máximos se encuentran siempre). Desde el punto de vista de la geometría que se asocia a las mismas, las su- perficies de las dos familias se dividen de la siguiente manera: a la esfera y al plano proyectivo se les puede asignar una geometría esfé- rica; al toro y a la botella de Klein, una geometría euclídea; y a todas las demás superficies una geometría hiperbólica. Una vez obtenida la clasificación de las superficies bidimensiona- les, es natural intentar clasificar las superficies en tres dimensiones: un trabajo que realizó William Thurston en los años 1970 y que no se concluyó aún, pero que le valió la medalla Fields en 1983. Él de- mostró que en el caso tridimensional existen no sólo tres, sino ocho geometrías posibles: del espacio euclídeo, del espacio hiperbólico, de la tóperesfera, de los hipercilindros de sección esférica, de los hiper- cilindros de sección hiperbólica, más otras tres (dos de las cuales co- rresponden a asignar al espacio euclídeo distancias diferentes de la habitual). Para complicar aunmás las cosas, no a todas las superficies tridimensionales se les puede asignar una sola de estas geometrías, por lo tanto es necesario, en general, cortar la superficie en pedazos y asignar geometrías distintas a los diferentes pedazos. Afortunada- mente, como demostróMilnor en 1962, las superficies tridimensiona- La Matemática del siglo XX 95 les se pueden descomponer en pedazos canónicos de manera sustan- cialmente única, utilizando cortes bidimensionales apropiados, por lo tanto, “sólo” se trata de asignar geometrías a las piezas canóni- cas y esto ya se hizo para muchas de las superficies tridimensionales (aunque todavía no para todas). Como ya ocurrió en el caso de dos dimensiones, la geometría hiperbólica es la que tiene más posibilida- des. Figura 12. Cilindro y Cinta de Moebius Figura 13. Toro Figura 14. Clasificación de las superficies bidimensionables orientables Figura 15. Plano Proyectivo y Botella de Klein 96 5. Matemática Pura Como ya dijimos al hablar de las variedades exóticas Michael Freedman logró una clasificación topològica de las superficies en cua- tro dimensiones, y por ello obtuvo la medalla Fields en 1986. Mientras que para las superficies en 5 o más dimensiones se obtiene una cla- sificación desde la teoría de la homotopía, de la que hablaremos más adelante. El caso tridimensional sigue siendo el único que falta com- pletar, pero no es el final de la historia. En efecto, existe una subclase importante de superficies multidi- mensionales, constituida por las variedades algebraicas (reales o com- plejas) definibles mediante sistemas de ecuaciones algebraicas. Las variedades unidimensionales (o curvas) algebraicas complejas son su- perficies reales particulares, y su clasificación topològica desciende de la clasificación general expuesta anteriormente, en términos de número de huecos. Una clasificación de las variedades bidimensionales (o superficies) algebraicas complejas (o tetradimensionales reales) fue uno de los es- pectaculares resultados de la escuela italiana de geometría de Guido Castelnuovo, Federigo Enriques y Francesco Severi, obtenido entre 1891 y 1949. En algunos casos, por ejemplo el de las superficies lla- madas de tipo general, los italianos demostraron el resultado de ma- nera completa. En cambio en otros casos, por ejemplo el de las super- ficies llamadas irregulares las demostraciones quedaron incompletas porque todavía faltaban los medios técnicos necesarios, que fueron desarrollados recién en los años 1950 por Kunihiko Kodaira, y le va- lieron la medalla Fields en 1954 y el premio Wolf en 1984/1985. Es por esto que el teorema de clasificación de las variedades algebraicas bi- dimensionales actualmente se llama de Enriques-Kodaira. El estudio más complicado acerca de las variedades tridimensiona- les algebraicas complejas (o en seis dimensiones reales) inicialmente fue emprendido por Corrado Segre, pero en este caso la falta de me- La Matemática del siglo XX 97 dios técnicos adecuados fue aun más limitativa que en el anterior, y no le permitió a la escuela italiana ir más allá de notables intuiciones y conjeturas. El desarrollo de la tecnología necesaria y la clasificación de las variedades tridimensionales algebraicas fue, en cambio, uno de los espectaculares resultados de la escuela japonesa de geometría de Heisuki Hironaka, Shing Tung Yau y Shigefumi Mori, que por sus trabajos obtuvieron la medalla Fields en 1970, 1983 y 1990. En par- ticular, el primero mostró cómo resolver las singularidades de una variedad, transformándola apropiadamente en otra sin singularida- des. El segundo caracterizó las variedades de Calabi-Yau, que no sólo constituyen una pieza importante de la clasificación sino que, como explicaremos más adelante, también encontraron aplicaciones ines- peradas en la teoría de las cuerdas. El tercero formuló y concluyó el llamado programa del modelo minimal, sobre el cual, precisamente, se basa la clasificación. 5.14. Teoría de Números: La demostración de Wiles del Último Teo- rema de Fermat (1995) En 1637, Fermat leyó la Aritmética de Diofanto, un monumental libro del siglo III, y anotó al margen la siguiente observación: Dividir un cubo en dos cubos, o en general una potencia n-ésima en dos potencias n-ésimas, es imposible si n es mayor que 2: encontré una demostración realmente importante de esto, pero el margen es demasiado pequeño para contenerla. Esta observación había sido anticipada para los cubos en 1070 por Omar Khayyâm, matemático y poeta, autor del Robâ’iyyât. En su forma general se hizo famosa con el nombre de el último teorema de Fermat, y durante 350 años fue uno de los problemas más famosos de la matemática. 98 5. Matemática Pura Fermat requería que n fuera mayor que 2 porque ya los babi- lonios, y después los pitagóricos, sabían que hay cuadrados que se pueden escribir como suma de dos cuadrados, por ejemplo 32 + 42 = 52, o sea 9+ 16 = 25. En la correspondencia de Fermat se encontró una demostración del teorema para n = 4, que usa un ingenioso método llamado des- censo infinito, que consiste en suponer por absurdo que haya una so- lución, y demostrar que entonces debe haber otra cuyos números no sean más grandes que los de la anterior, y al menos uno sea estricta- mente más pequeño, lo que conduce a una imposible regresión infi- nita. En el transcurso de los años, los mejores matemáticos se empe- ñaron en este problema, y confirmaron el teorema en varios casos: n = 3 Euler en 1753, n = 5 Dirichelet y Legendre en 1825, n = 7 Lamé en 1839, todo n menor que 100 Kummer entre 1847 y 1857. Aunque en 1980 la verificación ya había llegado a todo n menor que 125.000, todavía faltaba la demostración general del teorema. E1 primer auténtico resultado general se obtuvo de manera más bien indirecta. E1 punto de partida es la observación que indica que el teorema de Fermat requiere soluciones enteras de ecuaciones del tipo an + bn = cn. Entonces, ya que ( a c )n + ( b c )n = 1, La Matemática del siglo XX 99 se trata de encontrar soluciones racionales de ecuaciones del tipo xn + yn = 1. Estas ecuaciones definen una curva si se las considera sobre nú- meros reales, y una superficie si se las considera sobre números com- plejos; además, estas superficies se pueden clasificar sobre la base del número de huecos que tienen. Por ejemplo, para n = 2 no hay huecos, porque la ecuación anterior define un circulo como curva y una esfera como superficie; y existen infinitas soluciones racionales, que ya Diofanto sabía cómo describir completamente. En, de n ma- yor que 2 sí existen, en cambio, huecos, uno para n = 3, tres para n = 4, seispara n = 5, y así sucesivamente (Figura 16). Naturalmen- te, al aumentar la cantidad de los huecos aumenta la complejidad de la superficie y disminuye la posibilidad de encontrar soluciones simples (racionales). Figura 16. Superficies asociadas a la ecuación x3 + y3 = 1 Además de las ecuaciones anteriores, mientras tanto, otro tipo había resultado particularmente interesante, las llamadas curvas elíp- 100 5. Matemática Pura ticas, que ya hemos mencionado. En este caso la cantidad de huecos de la superficie correspondiente es uno, y también aquí es posible obtener infinitas soluciones racionales. En 1922, Leo Mordell propuso la conjetura de Mordell: “Los únicos tipos de ecuaciones que admiten infinitas soluciones racionales son aquellos que definen superficies sin huecos o con un solo hueco.” Esto significa que, si vale la conjetura de Mordell, el teorema de Fermat es casi verdadero, porque para todos los n mayores que 3 (y el caso n = 3 ya había sido resuelto por Euler) la ecuación define una superficie con más de un hueco y, por lo tanto, puede tener a lo sumo un número finito de soluciones racionales. En 1962, Igor Shafarevich propuso, a su vez, la conjetura de Shafa- revich: “En ciertas condiciones, se pueden encontrar las soluciones enteras de una ecuación descomponiendo primero la ecuación, es decir, considerando los varios análogos obtenidos limitando los enteros bajo los varios números primos, resolviendo estos análogos finitos, y volviendo a componer luego las soluciones para obtener una solución de la ecuación de partida.” En otras palabras, se trata de reconstruir las soluciones sobre la base del conocimiento de sus restos respecto de la división por varios números primos. En 1968, Parshin encontró un vinculo entre las dos conjeturas y probó que la conjetura de Mordell deriva de la de Shafarevich. La conjetura de Shafarevich fue demostrada en 1983 por Gerd Faltings, quien obtuvo por este trabajo la medalla Fields en 1986. La demostra- ción utiliza de manera esencial la solución de Deligne de la ulterior conjetura de Weil, de la que hablaremos enseguida. La demostración de la conjetura de Mordell es un resultado tan interesante que fue publicitado como el “teorema del siglo”, pero pa- rece no ser de gran ayuda en lo que respecta al teorema de Fermat, La Matemática del siglo XX 101 incluso una sola solución racional de la ecuación xn + yn = 1 produciría en efecto una solución entera de la ecuación an + bn = cn, y por lo tanto infinitas soluciones (obtenidas multiplicando la ante- rior por una constante). En realidad, en 1985 Andrew Granville y Roger Heath-Brown lograron derivar del teorema de Faltings la vali- dez del teorema de Fermat para infinitos exponentes primos. Es más, para casi todos los exponentes, desde un punto de vista de teoría de la medida. A la demostración del teorema de Fermat para todos los expo- nentes mayores que 2 se llegó, una vez más, por un camino muy indirecto, a través de la denominada conjetura de Taniyama. El punto de partida es, en este caso, la observación que indica que la ecuación x2 + y2 = l. se puede parametrizar mediante las llamadas funciones trigonomé- tricas, seno y coseno, que satisfacen precisamente la ecuación funda- mental (sen α)2 + (cos α)2 = 1. Entonces, resolver la ecuación de Fermat para n = 2 significa en- contrar un ángulo α cuyos seno y coseno sean racionales. De manera análoga, las llamadas funciones trigonométricas hiperbólicas para- metrizan la ecuación x2 − y2 = l. 102 5. Matemática Pura Pasando de las ecuaciones cuadráticas que definen las cónicas a las cúbicas, Taniyama conjeturó, en 1955, que ciertas funciones modula- res, más generales que las trigonométricas, parametrizan de manera análoga cualquier curva elíptica. En 1985, Gerhard Frey encontró la relación entre la conjetura y el teorema de Fermat, y propuso asociar a la ecuación de Fermat an + bn = cn la curva elíptica y2 = x(x+ an)(x− bn). Frey notó que su curva elíptica posee propiedades demasiado bellas para ser verdaderas; por ejemplo, el discriminante que determina la existencia de raíces del polinomio (x+ an)(x− bn) = x2 + x(an − bn)− anbn, es decir ∆ = √ (an − bn)2 + 4anbn = an + bn = cn es una potencia n-ésima perfecta. En 1986, Ken Ribet demostró que la curva de Frey no puede ser parametrizada por funciones modulares; esto, dicho de otra manera, significa que de la conjetura de Taniyama desciende el teorema de Fermat. “Sólo” faltaba demostrar también la conjetura. En 1995, Andrew Wiles logró comprobar una parte, para una dase de curvas elípticas llamadas semiestables, a la que pertenece la curva de Frey, resolvien- do de esta manera uno de los más famosos problemas abiertos de la matemática moderna. Wiles obtuvo por este histórico resultado el premio Wolf en 1995/1996, pero no pudo recibir una medalla Fields en 1998 porque acababa de cumplir más de cuarenta años. La Matemática del siglo XX 103 En 1999, Brian Conrad, Richard Taylor, Christophe Breuil y Fred Diamond completaron el trabajo de Wiles, demostrando que la con- jetura de Taniyama también vale para las curvas elípticas no semies- tables. 5.15. Geometría Discreta: La solución de Hales al Problema de Ke- pler (1998) En 1600, Sir Walter Raleigh le pidió al matemático Thomas Ha- rriot una fórmula para calcular cuántas balas de cañón había en una pila. Naturalmente, depende de cómo estén amontonadas, y Harriot se preguntó cuál sería el modo más eficiente para hacerlo. En 1606, el problema llegó hasta el astrónomo Johannes Kepler, quien encon- tró una analogía con el problema de la formación de los cristales de nieve, de las celdas de las colmenas y de las semillas de las granadas. En particular, imaginó que en todos estos casos se pone en acción un mismo mecanismo, por el cual esferas dispuestas en retículos espa- ciales de distintas formas, al expandirse, tienden a llenar completa- mente el espacio intermedio. En 1611, Kepler reformuló el problema matemático subyacente de la siguientemanera: determinar cuál es la configuración de esferas con el mismo radio que tiene la máxima densidad, en el sentido de la relación (al límite) entre el volumen total de las esferas y el del espacio que las contiene. Un problema análogo en el plano requiere la determinación de la configuración de círculos con el mismo radio que tenga la máxima densidad, en este caso, con respecto al área. Las dos configuraciones obvias para considerar en el caso de los círculos son la cuadrada y la hexagonal (Figura 17), y Kepler deter- minó que sus densidades son, aproximadamente, 0,785 y 0,907; por lo tanto, la configuración hexagonal es la mejor de las dos, como tam- bién puede observarse a simple vista. Pero esto no resuelve el proble- 104 5. Matemática Pura ma, que requiere la mejor configuración posible. En 1831 Gauss demostró que la configuración hexagonal es la me- jor entre todas las reticulares, tales que los centros de los círculos formen un retículo planar, o sea, una configuración simétrica de para- lelogramos. En 1892 Axel Thue anunció que había demostrado que la configuración hexagonal es la mejor en absoluto, pero la demos- tración fue publicada recién en 1910. En el espacio, las cuatro configuraciones obvias para considerar son las que se obtienen superponiendo entre sí estratos obvios de es- feras; hay dos elecciones para las configuraciones de los estratos ho- rizontales (cuadradas y hexagonales), y dos elecciones para la dispo- sición vertical de los estratos (con los centros de las esferas alineados, o desfasados). Pero en realidad, las cuatro configuraciones descritas sólo son tres: cuando se superponen desfasados estratos cuadrados o hexagonales se produce la misma configuración (Figura 18). Kepler determinó que la densidad de las configuraciones cuadra- da alineada, hexagonal alineada y (cuadrada o hexagonal) desfasada es, aproximadamente, 0,524, 0,605 y 0,740; por lo tanto, la configura- ción desfasada es la mejor de las tres. Y, en efecto, es la que se utiliza espontáneamentepara acomodar la fruta en las mesas de los merca- dos. Pero, una vez más, esto no resuelve el problema matemático. Gauss demostró que, análogamente a la configuración hexagonal en el plano, la configuración desfasada en el espacio es la mejor en- tre todas las reticulares, es decir, tales que los centros de las esferas formen un retículo espacial, o sea, una configuración simétrica de pa- ralelepípedos. El caso general constituía la tercera parte del decimoc- tavo problema de Hilbert y fue resuelto en 1998 por Thomas Hales, que comprobó que la configuración desfasada es efectivamente la mejor. La estructura de la demostración recuerda la del teorema de los cua- tro colores, de la que hablaremos mas adelante; se trata de reducir las La Matemática del siglo XX 105 configuraciones que hay que verificar a un número suficientemente pequeño como para que pueda ser controlado por el ordenador. La reducción utiliza 250 páginas, y el programa para el ordenador 3 gi- gabytes. Figura 17. Configuraciones de círculos Figura 18. Configuraciones de esferas Figura 19. Cuando la cantidad de dimensiones aumenta, el problema se po- ne aun más interesante. Ante todo, en 2 dimensiones se pueden co- locar 4 círculos de radio 1 dentro de un cuadrado de lado 4, y queda lugar en el centro para un circulito de radio √ 2 ≈ 0, 41. En 3 dimen- siones se pueden colocar 8 esferas de radio 1 dentro de un cubo de lado 4, y queda lugar en el centro para una pequeña esfera de radio 106 5. Matemática Pura √ 2 ≈ 0, 73 (Figura 19). En n dimensiones se pueden colocar 2n hiper- esferas de radio 1 dentro de un hipercubo de lado 4, y queda lugar en el centro para una pequeña hiperesfera de radio √ n− 1. Los radios de las pequeñas hiperesferas que se pueden colocar entre las hiperesferas siguen creciendo con el número de dimensio- nes, como se puede ver en el pasaje de 2 a 3. Cuando se alcanzan 9 dimensiones la pequeña hiperesfera tiene radio √ 9− 1 = 2, por lo tanto toca las caras del hipercubo, y cuando n es mayor que 9, ¡se sale del cubo! El problema de la mejor configuración de hiperesferas pluridi- mensionales entre todas las reticulares fue resuelto hasta la dimen- sión 8. Pero se sabe que no siempre las configuraciones reticulares ofrecen la mejor densidad; por ejemplo, en 1971, Leech y Sloane de- mostraron que no es así en 10 dimensiones. Un caso particularmente interesante es el de la dimensión 24; en 1965 Leech construyó una configuración, llamada precisamente re- tículo de Leech, que esprobablemente la mejor entre todas las reticu- lares, y en la cual cada hiperesfera toca otras 196.560 esferas (en la configuración desfasada del espacio a 3 dimensiones, cada esfera to- ca otras 12). Del estudio de este retículo, John Conway dedujo, en 1968, tres de los 26 grupos esporádicos usados en el teorema de cla- sificación de los grupos simples finitos. El problema de la configuración de hiperesferas a máxima den- sidad en espacios multidimensionales reviste actualmente una gran importancia para la transmisión de mensajes, especialmente para la compresión de los datos y la corrección de los errores. En efecto, ca- denas combinadas de n símbolos identifican las aristas de un hiper- cubo de n dimensiones, y para evitar errores de transmisión se quiere evitar que aristas adyacentes a una arista que codifica el mensaje, co- difiquen a su vez mensajes; una configuración de hiperesferas a má- La Matemática del siglo XX 107 xima densidad permite maximizar el número de mensajes, minimi- zando la posibilidad de error. Y el retículo de Leech fue descubierto, precisamente, trabajando en problemas de este tipo. 108 5. Matemática Pura 6 Matemática Aplicada La matemática, como Jano, tiene dos caras: la primera mira hacia el interior del hombre, al mundo de las ideas y de las abstracciones, y la segunda mira hacia afuera, al mundo de los objetos y de lo con- creto. La primera cara representa el lado puro de la matemática, en la cual la atención se concentra desinteresadamente en sus entes, con el fin de conocerlos por lo que son. La segunda cara constituye la parte aplicada, en la que la atención hacia los mismos entes es interesada, con el fin de poder aplicarlos por lo que pueden hacer. Las aplicaciones de la matemática han constituido una caracterís- tica constante de su historia, desde los tiempos de los egipcios y de los babilonios hasta la Revolución Industrial, y todas las ramas de la matemática clásica han sido, en sus orígenes, estimuladas por pro- blemas prácticos: mercantiles en aritmética, agrícolas en geometría, y físicos en análisis. Después, estas áreas fueron estimuladas continua- mente por motivaciones pragmáticas y utilitarias, que contribuyeron a su desarrollo, incluso teorético, con repercusiones frecuentemente inesperadas. 109 110 6. Matemática Aplicada La matemática del siglo XX no es una excepción, y muchas de sus ramas se originaron justamente gracias a los estímulos externos, para resolver problemas relacionados con el mundo real. Algunas de estas motivaciones derivan de áreas científicas cuya fertilidad ha sido ex- perimentada, como la física: la física ha inspirado, si no el nacimiento, ciertamente el crecimiento del cálculo tensorial, el análisis funcional y la teoría de los nudos, que son esenciales para la formulación de la relatividad general, de la mecánica cuántica y de la teoría de las cuerdas. En cambio, otras motivaciones derivan de áreas que recién en el siglo XX se hicieron científicas, precisamente cuando el descubri- miento de instrumentos matemáticos adecuados permitió tratar y re- solver algunos problemas fundamentales. Los ejemplos típicos son la economía y la biología: para resolver problemas de economía surgieron las teorías de los juegos, del equilibrio general y de la optimización; y problemas de biología, considerados durante años inaccesibles, hoy se pueden afrontar mediante la teoría de los nudos. Los instrumentos matemáticos mencionados, sobre tos que nos explayaremos más adelante, rayan los límites de la sofisticación téc- nica. Pero la técnica no se necesita en absoluto para que un argumen- to matemático tenga efectos explosivos, a condición de que su ausen- cia esté compensada por sofisticación filosófica. Antes de avanzar, queremos mostrar precisamente, con tres ejemplos correspondientes a las tres áreas mencionadas, de quémodo, incluso la matemática ele- mental puede ser suficiente, si se utiliza de manera cuidadosa, para resolver significativos problemas fundamentales de otras ciencias. La primera de estas cuestiones se refiere a la noción de realidad física, que fue puesta en duda por el descubrimiento de la mecánica cuántica y, más precisamente, por la descripción de los fenómenos subatómicos en términos de función de onda. Por su dificultad de La Matemática del siglo XX 111 interpretación, Niels Bohr propuso considerar la teoría como la des- cripción, no de hipotéticas partículas físicas, sino sólo de los resul- tados de experimentos en los aparatos de medición; según Bohr, la noción de realidad, que se había desarrollado históricamente para la descripción del mundomacroscópico, dejaba de tener sentido a nivel microscópico. Esta interpretación idealista de la nueva física encontró, natu- ralmente, profundas resistencias, en particular por parte de Albert Einstein. Él siguió pensando toda su vida que era posible encontrar una descripción realista de los fenómenos subatómicos, de la cual la mecánica cuántica habría resultado ser sólo una aproximación, y en 1935 propuso un famoso experimento mental, llamado de Einstein, Podolsky y Rosen por el nombre de sus autores, que demostraba la incompletud de la mecánica cuántica. En 1964, John Bell encontró una versión del experimento que po- día verificarse prácticamente y que tuvo resultados inesperados. Se trata de considerar un rayo de luz que pasa sucesivamente a través de dos filtros polarizados; la mecánica cuántica prevé, y la experien- cia lo confirma, que una vez que el rayo de luz haya pasado através del primer filtro, la fracción de sus fotones que pasa a través del se- gundo es cos2(α), donde α es el ángulo formado por las direcciones de polarización de los dos filtros. Consideremos qué ocurre cuando cada uno de los dos filtros se coloca o verticalmente, o a 60◦, o a 120◦. Si los dos filtros tienen la misma dirección, lo cual ocurre en 13 de los casos posibles, el segundo filtro deja pasar todos los fotones del rayo que sale del primero. Si, en cambio, los dos filtros tienen direcciones distintas, lo que ocurre en los restantes 23 de los casos, éstos forman siempre un ángulo recíproco de 60◦, y el segundo filtro deja pasar ( 1 2 )2 = 14 de los fotones que salen del primero. Por lo tanto, en promedio, pasa sólo 13 + 2 3 · 14 = 12 112 6. Matemática Aplicada de los fotones. Lo que Bell descubrió es que estos resultados experimentales se contradicen con la hipótesis de que los fotones se pueden pensar, de manera realista, como partículas que llegan a los filtros estando ya polarizadas en una determinada dirección. En efecto, si así fuera, cuando los filtros tienen la misma dirección pasarían efectivamente los mismos fotones a través de ambos. Si, en cambio, los filtros es- tán polarizados cada uno en cualquiera de las tres direcciones, por el segundo deberían pasar al menos de los fotones que salieron del primero, y por lo tanto más de 12 . En efecto, en los tres casos en que los filtros tienen la misma dirección, pasan a través de ellos los mis- mos fotones; y si un fotón pasa a través de los filtros colocados en dos direcciones distintas, también debería pasar cuando se cambien las dos direcciones entre sí, o sea, en otros dos casos. Un simple cálculo de aritmética elemental pudo demostrar que la hipótesis del realismo ingenuo se contradice con los resultados expe- rimentales. Y algunas versiones más sofisticadas del teorema de Bell, confirmadas por famosos experimentos de Alain Aspect en 1982, de- muestran que, aunque es posible interpretar de manera realista la mecánica cuántica, esto no se puede hacer manteniendo intacta la concepción de la realidad que tenemos a nivel macroscópico. En par- ticular, no se puede seguir suponiendo que objetos separados en el espacio no puedan interactuar instantáneamente, y por lo tanto, se debe postular la existencia de conexiones holísticas, que no forman parte del bagaje cultural occidental. El segundo problema fundacional que afrontamos se refiere a la noción de selección social entre varias alternativas, a partir del cono- cimiento de las preferencias individuales. El problema surge en las situaciones más variadas, desde la selección de los candidatos en una elección política, hasta la de un plan económico por parte de un con- La Matemática del siglo XX 113 sejo de administración. Una dificultad del problema fue descubierta en 1785 por Marie Jean Antoine Nicolás de Caritat, más conocido como el marqués de Condorcet, y se puede ilustrar con un ejemplo práctico. En las elec- ciones presidenciales estadounidenses de 1976, Jimmy Carter ven- ció a Gerald Ford, quien había obtenido la nomination republicana al ganarle a Ronald Reagan. Pero las encuestas decían que Reagan le habría ganado a Cárter, aunque en condiciones políticas diferentes, como efectivamente ocurrió en 1980. Se había producido una situa- ción paradójica prevista por Condorcet: que en un sistema electoral en el que los candidatos son seleccionados en elecciones sucesivas, dos a dos, el ganador puede depender del orden en que se realizan las votaciones. Por ejemplo, para hacer ganar a Ford habría basta- do con hacer primero la votación entre Carter y Reagan, y luego la votación entre el ganador (Reagan) y Ford. La pregunta es si es posible, de alguna manera, enmendar el sis- tema electoral, para que resulte imposible que se verifiquen situa- ciones como la descripta. La respuesta, sorprendentemente negativa, fue encontrada en 1951 por Kenneth Arrow, y fue el punto de partida de la teoría de las selecciones sociales, que le valió a Arrow el premio Nobel de economía en 1972. El teorema de Arrow establece que no existe ningún sistema elec- toral que satisfaga los principios de libertad individual, de la depen- dencia del voto, de la unanimidad y del rechazo de la dictadura. Más explícitamente, no existe ningún sistema electoral en el que: cada vo- tante puede votar por el candidato que prefiere, el resultado de la elección sólo depende de los votos dados, gana un candidato que ob- tenga todos los votos y ningún elector solo es capaz de determinar siempre el resultado de la elección. Naturalmente, las hipótesis en las que se basa el teorema deArrow 114 6. Matemática Aplicada se consideran irrenunciables en un sistema democrático, y por esto generalmente se dice de manera sucinta que Arrow ha demostrado que la democracia no existe. Lo interesante, desde nuestro punto de vista, es que la demostración es de naturaleza matemática, y que se llega a ella mediante una simple axiomatización de las condiciones en las que se basa la paradoja de Condorcet; esto demuestra que la matemática también se puede aplicar en un campo humanista que, a primera vista, podría haberse considerado resistente a análisis for- males. El último problema fundacional se refiere a la noción de autorre- producción, característica de los organismos vivientes. En 1951, John von Neumann, desarrollando la teoría de los autómatas celulares, se propuso el problema de construir una máquina capaz de autorre- producirse, y lo resolvió matemáticamente de la siguiente manera, inspirándose en una técnica usada en teoría de la computabilidad. Consideremos una máquina C que sea un constructor universal, en el sentido de que sepa construir cualquier máquina M de cier- to tipo, a partir de una descripción m de la misma. En particular, la máquina C puede construir una copia de sí misma, a partir de la pro- pia descripción c, pero ésta no es todavía una autor reproducción: partiendo del sistema constituido por C y por su descripción c, se obtiene, en efecto, sólo una copia de la misma máquina C, a la cual le falta, sin embargo, una copia de su descripción c. Para obviar el problema, consideremos entonces una máquina F que sea una fotocopiadora universal, en el sentido de que sepa repro- ducir una copia de cualquier descripción m. Juntando las máquinas C y F, se puede obtener una nueva A que, a partir de la descripción m, haga una copia de m, construya M, y le agregue la copia de m. La máquina A con la propia descripción a ahora se puede autor repro- ducir efectivamente, porque construye A y le agrega la descripción La Matemática del siglo XX 115 a. Aunque el mecanismo recién descripto haya sido pensado en tér- minos de reproducciónmecánica, en 1953 Francis Crick y James Wat- son descubrieron que estemecanismo también ofrece unmodelomo- lecular de la reproducción biológica, en un trabajo que les valió el premio Nobel de medicina en 1962. Más precisamente, la descripción m cumple el rol de un gen, o sea de un segmento de adn, que codifica la información para la reproducción. P, una enzima especial llamada arn polimerasa, tiene la función de duplicar el material genético en un segmento de arn. C, un conjunto de ribosomas, construye proteí- nas según la información de este segmento. A es una célula autorre- productiva. Naturalmente, el modelo no sólo está simplificado, sino que tam- bién se desinteresa completamente de los “detalles” químicos del mecanismo, dejando de lado especialmente la famosa estructura de doble hélice del adn descubierta por Crick yWatson; un tipo de estu- dios que, obviamente, forma parte de otros campos. Lo interesante, desde nuestro punto de vista, era mostrar de qué manera el plano ge- neral de la reproducción se puede descubrir en la teoría, y que haya sido descubierto en la práctica mediante un simple uso de técnicas lógicas. Después de estos ejemplos de aplicación de la matemática ele- mental en problemas fundacionales, ahora podemos pasar a afrontar las aplicaciones de la matemáticasuperior en problemas más propia- mente científicos. 6.1. Cristalografía: Los Grupos de Simetría de Bieberback (1910) El mandamiento que en la tradición cristiana se reduce a “no ten- drás dioses ajenos delante de mí”, en la formulación original (Éxodo, 116 6. Matemática Aplicada XX, 3-6; Deuteronomio, V, 7-10) continuaba: “No te harás imagen, ni ninguna semejanza de cosa que esté arriba en el cielo, ni abajo en la tierra, ni en las aguas debajo de la tierra”. Las prohibiciones de un arte figurativo fueron tomadas muy en serio por los hebreos y los árabes, que desarrollaron un arte pura- mente abstracto y geométrico, y exploraron los posibles tipos de de- coración mural. El resultado más elevado en este campo se alcanzó en el siglo XIV, con los azulejos de la Alhambra de Granada (Figura 20). Aunque, obviamente, las posibles decoraciones murales sean ili- mitadas en número, no lo son, en cambio, en lo que respecta al ti- po. En efecto, desde un punto de vista matemático, las simetrías que exhiben estas decoraciones pueden clasificarse sobre la base de las posibles combinaciones (más precisamente, de los posibles grupos de simetría) de transformaciones que las mantienen invariadas: tras- laciones a lo largo de una recta, reflexiones respecto de una recta y rotaciones en torno de un punto. En 1891, Fedorov demostró que existen sólo 7 tipos distintos de grupos de simetría para frisos lineales, como los griegos y los zóca- los (Figura 21), y 17 para los planos, como los usados en suelos y alfombras (Figura 22). Además, los grupos planos sólo pueden exhi- bir simetrías de rotación de 180◦, 120◦, 90◦ y 60◦, o sea de tipo axial, triangular, cuadrado y hexagonal. Casi todos estos tipos fueron em- pleados efectivamente en las decoraciones de la Alhambra, y en va- rias ciudades más, desde egipcias a japonesas. Si los objetos planos simétricos más comunes son las decoracio- nes murales, los espaciales más conocidos son los cristales. La crista- lografía fue precisamente uno de los primeros campos de aplicación de la teoría de los grupos, a partir de 1849 con Auguste Bravais. Y en 1890, antes de demostrar el resultado análogo para los tipos de La Matemática del siglo XX 117 grupos de simetría plana, Fedorov ya había demostrado que existen sólo 230 tipos distintos de grupos de simetría espacial. Figura 20. Azulejos de la Alhambra La primera parte del decimoctavo problema de Hilbert preguntaba si, para cada n, los tipos de grupos de simetría en n dimensiones son un número finito. En 1910, Ludwig Bieberbach dio una respuesta po- sitiva, pero aún hoy se desconoce una fórmula explícita para obtener el número de tales grupos en general; por ejemplo, recién en los años 1970 se logró demostrar que existen 4.783 grupos de simetrías tetra- dimensionales. La segunda parte del decimoctavo problema de Hilbert era com- plementaria de la primera; en vez de preguntar cuántos eran los po- sibles modos simétricos de cubrir el plano, preguntaba si existía un tipo de azulejos que permitiera cubrir todo el plano, pero sólo dema- nera no simétrica. También aquí la respuesta es positiva, y fue dada por Heesch en 1935. La Figura 23 muestra un ejemplo, de Maurits Escher. Más exigente es la búsqueda de un tipo de azulejos que permita cubrir todo el plano, pero sólo de manera no periódica, es decir, sin repetir al infinito la misma configuración. La pregunta fue formulada 118 6. Matemática Aplicada en 1961 por Hao Wang; su interés se centraba en el hecho de que una respuesta negativa habría representado un procedimiento para decidir si, dado un conjunto de azulejos, éstos podían cubrir todo el plano o no. Alfombra ʺdragón y fénixʺ, Asia Menor I Vitral de colores, Catedral de Bourges II III Decoración de un cofre (Renacimiento francés) IV VI VII Margen de pergamino de la Antigua Grecia Decoración china pintada sobre porcelana Brocado italiano del Renacimiento V Mosaico de Pompeya Figura 21. Los 7 grupos de simetría lineal La Matemática del siglo XX 119 I Decoración mural medieval francesa II Alfombra ghiordes III Manuscrito medieval con miniaturas con diseño romboidal IV Alfombra shiraz V Decoración de penachos de arco, la Alhambra VI Alfombra francesa del Renacimiento VII Tejido del siglo XVI VIII Seda morisca del siglo XIV IX Mosaico de Pompeya X Cieloraso egipcio XI Vitral francés XII Decoración árabe esmaltados XIII Azulejos persas de hierro forjado XIV Jarrón japonés con miniaturas XV Manuscrito persa modernos XVI Azulejos ingleses con miniaturas XVII Manuscrito persa Figura 22. Los 17 grupos de simetría plana En 1966, Robert Berger demostró en cambio, que tal procedimien- to de decisión no existe, y que por lo tanto existen azulejos para cu- brir el plano sólo de manera no periódica. El ejemplo original de Ber- 120 6. Matemática Aplicada ger era bastante complejo, y consistía en 20.246 azulejos distintos. En 1974, Roger Penrose encontró un ejemplo simple, de sólo dos azule- jos (Figura 24). No se sabe si existen ejemplos formados por un solo azulejo (un ejemplo de un único poliedro que por sí solo llena todo el espacio, de manera no periódica, fue encontrado en 1993 por John Conway). El ejemplo de Penrose es interesante matemáticamente porque exhibe una simetría de rotación pentagonal (Figura 25) que ninguna cobertura plana simétrica puede exhibir. El ejemplo también adqui- rió interés físico cuando, en 1984, el cristalógrafo Daniel Schechtman descubrió una aleación de aluminio y manganeso, cuya estructura molecular tenía una superficie que exhibía una simetría del mismo tipo, que ninguna estructura cristalina puede exhibir; esas estructu- ras fueron denominadas cuasicristales. Figura 23. Maurice Escher, Fantasmas, 1971 La Matemática del siglo XX 121 Figura 24. Azulejos de Penrose El descubrimiento de los cuasicristales muestra que, para la des- cripción de la naturaleza, la teoría de los grupos no es la última pa- labra, y por lo tanto se necesita alguna teoría más general. Por esta razón, en el estudio de las propiedades de los cuasicristales y en la búsqueda de una clasificación de sus estructuras, en particular de los grupos cuasicristalográficos, se están empeñando matemáticos co- mo SergeiNovikov y Enrico Bombieri,medallas Fields en los años 1970 y 1974. Figura 25. Azulejos de Penrose 122 6. Matemática Aplicada 6.2. Cálculo Tensorial: La relatividad general de Einstein (1915) El hecho de que la tierra haya sido considerada plana durante mucho tiempo muestra intuitivamente que la curvatura de una es- fera es tanto más pequeña cuanto más grande es el radio. Formal- mente, la curvatura de un círculo se define como el inverso del radio. Para curvas más complicadas, la curvatura fue definida por Newton en 1671, considerando en cada punto la curvatura del círculo (llama- do osculador) que aproxima la curva en ese punto. La curvatura de una superficie fue definida por Gauss en 1827, considerando en cada punto el producto entre la mínima y la máxi- ma curvatura de las curvas obtenidas seccionando la superficie con planos perpendiculares al plano tangente, y que pasen por ese pun- to. Por ejemplo, la esfera tiene la misma curvatura que sus círculos máximos, que precisamente constituyen sus secciones; y el cilindro tiene curvatura nula, porque una de las secciones es simplemente una recta. Pero para poder calcular la curvatura de una superficie de esa manera hay que realizar medidas fuera de la misma, pasando a tra- vés del espacio que la contiene. Gauss descubrió que también es posi- ble calcular la curvatura mediante medidas efectuadas sólo sobre la superficie, en particular, determinando que la tierra es redonda sin tener que mirarla desde el espacio. Gauss demostró también un resultado tan satisfactorio que hasta él, conocido por su exigencia, lo llamó theorema egregium, y decía que las superficies que poseen una geometría intrínseca, en el sentido de que las figuras se puedenmover sobre ellas sin sufrir deformaciones, son exactamentelas que tienen curvatura constante. El análogo de las rectas sobre estas superficies son las llamadas geodésicas, o sea las líneas de mínima distancia entre dos puntos. Por ejemplo, sobre una esfera las geodésicas son los arcos de círculos máximos; y sobre La Matemática del siglo XX 123 el cilindro son las curvas que se obtienen uniendo los dos puntos con un segmento, después de que el cilindro fue cortado a lo largo y desplegado en el plano. En el plano, las únicas curvas de curvatura constante son la recta, que tiene curvatura nula, y el círculo, que tiene curvatura positiva. En el espacio, el plano y el cilindro tienen curvatura nula, y la esfera tie- ne curvatura constante positiva. Pero Gauss descubrió que también existen superficies de curvatura constante negativa, por ejemplo la pseudoesfera, que se obtiene rotando en torno a su asíntota una curva llamada tractriz, que se obtiene caminando a lo largo de una recta y tirando un peso mediante una cuerda de largo fijo (Figura 26). Figura 26. Tractriz y Pseudoesfera En 1854, Riemann amplió la noción de curvatura también a sus variedades, que no siempre pueden penetrar en el espacio euclídeo. Y determinó la geometría de las variedades de curvatura constante, que es euclídea si la curvatura es nula, esférica si la curvatura es po- sitiva e hiperbólica si la curvatura es negativa. En particular, la pseu- doesfera representa unmodelo de una parte del plano hiperbólico en el espacio euclídeo (sólo una parte, porque la pseudoesfera tiene un agujero pero el plano hiperbólico no); precisamente, fue elaborando este modelo parcial que Beltrami obtuvo el primer modelo completo del plano hiperbólico, del que ya hemos hablado. 124 6. Matemática Aplicada Además de modelos de geometrías matemáticas, las variedades de Riemann pueden ser consideradas como modelos del mundo físi- co; el primero que propuso esta posibilidad fue Gauss, quien efectuó medidas geográficas para determinar si la geometría del universo realmente era euclídea, como siempre se había pensado, o no. Las únicas magnitudes que tienen relevancia geométrica son las que, como la distancia, se pueden expresar de manera independien- te del sistema de coordenadas. Análogamente ocurre para las leyes físicas; ya que éstas generalmente se expresan en forma diferencial, para poder aplicar la geometría riemanniana a la física era necesa- rio emprender un estudio de invarianza de las ecuaciones diferen- ciales respecto de los cambios de coordenadas sobre variedades de Riemann. El instrumento desarrollado con este fin, a partir de 1892, por Gre- gorio Ricci Curbastro, fue llamado cálculo tensorial. Los tensores a los que se refiere son cantidades que se transforman de tal manera que sus componentes en un sistema de coordenadas son combinaciones lineales de los componentes en otro sistema, con coeficientes dados por las derivadas de la transformación. Ricci definió operaciones al- gebraicas (suma y multiplicación) y diferenciales (derivación cova- riante) sobre los tensores, permitiendo de este modo extender a las variedades de Riemann todo el aparato analítico ya desarrollado en el caso euclídeo. En 1901, Ricci y Tullio Levi Civita expresaron en forma tensorial, y por lo tanto invariante respecto de cambios de coordenadas, va- rias leyes físicas. Pero la aplicación más interesante la hizo Albert Einstein, que en 1915 encontró en el cálculo tensorial el instrumento adecuado para describir su teoría de la relatividad general. Las variedades de Riemann usadas por Einstein son tetradimen- sionales, con tres dimensiones espaciales y una temporal; por esta ra- La Matemática del siglo XX 125 zón, en general se habla de ellas como de modelos del espacio-tiempo. La forma específica de la variedad, y en particular su curvatura, está determinada por la distribución de la materia en el universo, y los cuerpos libres se mueven sobre la variedad recorriendo las geodési- cas, como rocas que ruedan a lo largo de una pendiente según líneas de mínima resistencia. Una vez reducida la gravitación a la geometría, es natural bus- car una reducción semejante también de las otras fuerzas físicas. La primera formulación de una teoría que comprende también el elec- tromagnetismo fue encontrada por Hilbert en 1915; él dedujo elegan- temente (e independiente) las ecuaciones de Einstein, ademas de las de Maxwell, desde un único principio variacional, en conformidad con las preguntas formuladas en su sexto problema, que requería una axiomatización de la física. Hermann Weyl efectuó en 1918 una tentativa distinta, que des- cribió tanto la gravitación como el electromagnetismo usando una variedad tetradimensional de naturaleza afín (no riemanniana), en vez de métrica (riemanniana); en esas variedades, mientras el para- lelismo es independiente del sistema de coordenadas, no está dicho que la distancia lo sea. Esto requiere una nueva definición de geodé- sica, dado que ya no puede ser definida como una línea de mínima distancia; un requerimiento que ya había sido formulado en el cuarto problema de Hilbert, que pedía precisamente un tratamiento general de la noción de geodésica. La solución de Levi Civita, en 1917, fue definir las geodésicas como las curvas cuyas tangentes son todas pa- ralelas entre sí. Aunque la teoría de Weyl (como la de Hilbert) no haya resulta- do satisfactoria desde el punto de vista físico, inauguró el estudio de las variedades no riemannianas en geometría. Un satisfactorio tra- tamiento común de los campos gravitacionales y electromagnéticos 126 6. Matemática Aplicada sigue siendo hoy un problema abierto, y forma parte del problema más general de unificación de todas las fuerzas en una teoría del todo. 6.3. Teoría de Juegos: El Teorema Minimax de Von Neumann (1928) La vida obliga a hacer constantemente elecciones en todo nivel (personal, familiar, social) y en todo campo (moral, económico, polí- tico), en situaciones en que no se conoce perfectamente la situación, ni el comportamiento ajeno, ni los efectos de las decisiones. La teo- ría de los juegos tiene la finalidad de modelizar matemáticamente este proceso decisional, en la típica manera de la ciencia, es decir, abstra- yendo de las situaciones reales algunos elementos que se presten a un tratamiento formalizado. Un primer ejemplo significativo de tal análisis del comportamien- to se remonta a 1651, en el Leviatán de Thomas Hobbes. Él propuso la idea de que las sociedades humanas son alianzas que se hacen ne- cesarias para contener el violento estado de naturaleza, fundado por un lado en la agresión contra todos, y por el otro en el miedo de ca- da uno; en otras palabras, sobre la preferencia por la no cooperación propia y la cooperación ajena. Mediante el contrato social, los indi- viduos renuncian al derecho de ejercer la violencia a cambio de la seguridad de ser protegidos, y el orden social resulta favorable no sólo para quienes lo imponen, sino para todos; el resultado del con- trato social es entonces un cambio de las reglas de juego. Un segundo ejemplo significativo se encuentra en un pasaje del Discurso sobre el origen de la desigualdad entre los hombres, de Jean Jac- ques Rousseau, de 1755. En este caso, las sociedades humanas están consideradas como evoluciones de las alianzas temporales que eran necesarias para la caza de animales grandes, ante los cuales un in- dividuo aislado no habría podido vencer. Pero mientras dos indivi- duos están, por ejemplo, participando en una cacería de un ciervo, La Matemática del siglo XX 127 puede ocurrir que uno de ellos vea una liebre, que podría cazar solo; aquí surge pues la tentación de cazarla, considerando que, aunque un ciervo sea mejor que una liebre, una liebre es mejor que nada. Y la tentación está reforzada por la consideración de que quizás el otro cazador también avistó la liebre y abandonó la cacería. Otros ejemplos se pueden ver, naturalmente, en auténticos jue- gos, de donde la teoría sacó su nombre. Éstos pueden jugarse no sólo por diversión, como las cartas o elajedrez, sino también por adiestra- miento, como en el caso del Kriegspiel que utilizaba cartas militares y elaborados soldaditos, y fue considerado el inspirador de las estrate- gias vencedoras en las guerras prusianas con Austria en 1866 y con Francia en 1870, y en la guerra japonesa con Rusia en 1905. El primer trabajo matemático sobre la teoría de los juegos fue el artículo presentado en el Congreso Internacional de Matemáticos de 1912 por Ernst Zermelo. En su trabajo, Zermelo comprobó que el jue- go del ajedrez (y, más en general, todo juego que no puede proseguir al infinito) está determinado en este sentido: o existe una estrategia que permite siempre ganar al blanco, o existe una estrategia que per- mite siempre ganar al negro, o existe una estrategia que permite a ambos jugadores empatar siempre. Pero el resultado de existencia no es constructivo, en el sentido de que no dice cuál de los tres casos sucede efectivamente, por esto no tiene aplicaciones prácticas. Los fundamentos de la teoría de los juegos fueron expuestos en 1921 por Emile Borel, que fue también ministro de la Marina fran- cesa. Él usó el póquer como ejemplo, y afrontó, entre otros, el difícil problema de tratar el bluff. Además, Borel planteó el problema de determinar en cuáles casos existe una estrategia que se pueda consi- derar óptima, y cómo hacer para encontrarla. Una aplicación del teorema del punto fijo de Brouwer le permitió a John von Neumann demostrar, en 1928, el primer teorema profun- 128 6. Matemática Aplicada do de la nueva teoría. Este establece que en ciertos juegos a suma cero, es decir, en los que la victoria de un jugador es igual y contraria a la derrota del otro, y a información perfecta, es decir, en el que cada ju- gador conoce exactamente tanto los posibles movimientos del otro como sus consecuencias, existe una estrategia que permite a ambos jugadores minimizar sus máximas pérdidas, de aquí el nombre de minimax. Para cada posible jugada propia, cada jugador considera todas las posibles jugadas del adversario y la máxima pérdida que podría pro- vocarle; entonces juega el movimiento que produce la mínima pérdi- da. Esta estrategia, que minimiza la máxima pérdida, es óptima para ambos jugadores si tienenminimax iguales (en valor absoluto) y con- trarios (en signo), si tal valor es cero, entonces es inútil jugar. El teorema minimax fue mejorado y extendido en varias ocasio- nes por Von Neumann, por ejemplo, a juegos de información imper- fecta, o con más de dos jugadores; este último caso se complicó por la posibilidad de cooperación entre algunos jugadores, en forma de alianzas o coaliciones. El trabajo de Von Neumann culminó, en 1944, en el clásico texto La teoría de los juegos y el comportamiento económico, escrito con el economista Oscar Morgenstern. La formalización más satisfactoria de la noción de estrategia óp- tima es el concepto de equilibrio de Nash, propuesto en 1950 por John Forbes Nash; en el caso particular de los juegos de suma cero, se re- duce al minimax de Von Neumann. Nash demostró que todo juego no cooperativo con dos o más jugadores, incluso no de suma cero, admite un equilibrio, y por este trabajo obtuvo el premio Nobel de eco- nomía en 1994. En el caso de dos jugadores, un equilibrio de Nash es una situa- ción en la que ninguno de los dos tiene recriminaciones que hacer, en el sentido de que incluso sabiendo anticipadamente cuál sería el La Matemática del siglo XX 129 comportamiento del otro jugador, cada uno se habría comportado del mismo modo. En otras palabras, la situación no se puedemejorar con actos individuales unilaterales, aunque se pueda hacer con actos colectivos. Es bastante obvio que si un estado no es de equilibrio, entonces no es racional; en efecto, al menos un jugador tendrá motivos para pensar que podría haber actuado mejor. Ser un equilibrio de Nash constituye entonces una condición necesaria para un comportamien- to racional, pero no una condición suficiente; en efecto, existen juegos en lo; que los equilibrios de Nash no son para nada racionales. Un ejemplo típico es el dilema del prisionero, propuesto por Albert Tucker en 1950. La situación se refiere a dos sospechosos de un cri- men, que son arrestados e interrogados separadamente; si uno de los dos denuncia al otro, recibirá una recompensa y será liberado, mien- tas el cómplice será condenado con la pena entera; pero si ambos se denuncian mutuamente, entonces ambos serán condenados con una pena reducida; si, en cambio, ninguno de los dos habla, ambos serán liberados. El único equilibrio de Nash es, en este caso, que ambos denuncien al compañero, pero el equilibrio no es racional, porque ciertamente es de interés común no hablar. En la segunda mitad del siglo la teoría de los juegos asumió un rol fundamental en el análisis de situaciones de conflicto, y la apli- can regularmente los consejeros militares, económicos y políticos de los gobernantes de varios países industrializados, sobre todo en los Estados Unidos. 6.4. Análisis Funcional: La Axiomatización de la Mecánica Cuántica de Von Neumann (1932) Los problemas de la física matemática conducen naturalmente a ecuaciones diferenciales o integrales, en las que una función incóg- 130 6. Matemática Aplicada nita se encuentra bajo el signo de derivada o de integral. Métodos para la solución de ecuaciones diferenciales (primero para las deri- vadas ordinarias y luego para las parciales) fueron desarrollados ya a partir de finales del siglo XVII. Los primeros pasos explícitos pa- ra la solución de las ecuaciones integrales (más complicadas) fueron dados, en cambio, recién en los primeros decenios del siglo XIX. La teoría general de las ecuaciones integrales fue iniciada en el último decenio del siglo XIX por Vito Volterra, y desarrollada en el primer decenio del siglo XX por David Hilbert. Estos desarrollos del análisis dejaron ver un aspecto esencial: que en matemática generalmente se trabaja no sólo con funciones que operan sobre números, sino con funcionales que operan sobre funcio- nes. Por ejemplo, como las operaciones de elevación al cuadrado o de extracción de raíz cuadrada asignan explícitamente a un núme- ro otro número, precisamente su cuadrado o su raíz cuadrada, así las operaciones de derivación y de integración (indefinida) asignan a una función otra función, precisamente su derivada o su integral. Análogamente, así como una ecuación define implícitamente uno o más números, o sea sus soluciones, también una ecuación diferen- cial o integral define implícitamente una o más funciones, o sea sus soluciones. Justamente las dificultades en el tratamiento de estos funcionales, sobre todo en el cálculo variacional y en la teoría de las ecuaciones integrales, condujeron a la exigencia de desarrollar una propia teoría abstracta e independiente, que hiciera emerger sus propiedades, teo- ría que precisamente fue llamada análisis funcional, para indicar que trata funcionales y distinguirla del análisis real (o complejo) que, en cambio, trata funciones que operan sobre números reales (o comple- jos). Los ambientes naturales para el desarrollo del análisis real (o com- La Matemática del siglo XX 131 plejo) son los espacios euclídeos, cuyos puntos se identifican con sus coordenadas cartesianas. En el caso, por ejemplo, de un espacio de n dimensiones, un punto se identifica con n números x1, . . . , xn, y la distancia de ese punto desde el origen se calcula con el teorema de Pitágoras, mediante la expresión √ x21 + . . .+ x 2 n En su estudio sobre las ecuaciones integrales, Hilbert debió traba- jar con funciones que se podían expresar mediante una suma infi- nita (llamada serie de Fourier), con infinitos coeficientes x1, x2, . . ., y descubrió que la condición que permitía que estas funciones fueran tratadas en su teoría era que la suma x21 + x 2 2 + . . . fuera finita. Pero si esta suma es finita, también lo es su raíz cuadra- da; por lo tanto, estas sucesiones de números se pueden pensar como las coordenadas de puntos en unespacio euclídeo de “infinitas di- mensiones”, para el cual sigue valiendo el teorema de Pitágoras. En 1907, Erhard Schmidt y Maurice Fréchet introdujeron entonces el es- pacio de Hilbert H, cuyos elementos son los puntos que tienen infinitas coordenadas que satisfacen la condición que acabamos de describir. Sin embargo, puesto que para Hilbert las sucesiones eran sólo un modo de tratar las funciones, Schmidt y Fréchet introdujeron tam- bién directamente un espacio funcional L2, cuyos puntos son las fun- ciones (definidas sobre intervalo) que satisfacen un análogo a la con- dición de Hilbert, es decir, el hecho de que la integral de Lebesgue de su cuadrado sea finito, de aquí el nombre L2. Que el espacio de Hilbert H y el espacio funcional L2 sean en realidad la misma co- sa, se explica en el contenido del llamado teorema de representación de 132 6. Matemática Aplicada Friedrich Riesz y Ernst Fischer. Los espacios H y L2 son los dos casos particulares de una vasta clase de espacios de Banach, introducidos en 1922 por Stefan Banach, que proporcionaron la correcta axiomatización de las propiedades necesarias para el desarrollo de la teoría de las ecuaciones integrales. En particular, las construcciones de soluciones de estas ecuaciones mediante sucesivas sustituciones, según una técnica anticipada ya en 1832 por Joseph Liouville, resultaron ser casos particulares de un general teorema del punto fijo de Banach. Pero lo que representó la fortuna del análisis funcional no fue tanto su adecuación para tratar la teoría de las ecuaciones integrales, sino su inesperada e inmediata aplicación a la mecánica cuántica. En efecto, ésta había sido formulada originariamente, con motivaciones puramente heurísticas (en dos formalismos completamente distintos, aunque después resultaran equivalentes) mediante matrices infinitas de observables, por Werner Heisenberg en 1925, que por este trabajo recibió el premio Nobel en 1932; y mediante funciones de onda, por Erwin Schrödinger en 1926, quien por este trabajo obtuvo el premio Nobel en 1933. Ya en el invierno de 1926, en el espíritu de su sexto problema, el mismo Hilbert había intentado extraer de los dos formalismos una formulación axiomática teóricamente satisfactoria, y de la que deri- varan los dos. Sus ideas no funcionaron directamente, porque la teo- ría de las distribuciones que las habría justificado todavía no había sido desarrollada, pero su asistente John vonNeumann las reformuló en 1927, en términos de espacios H y L2; en el primer caso, se obtiene la versión de la mecánica cuántica de Heisenberg; en el segundo, la de Schrödinger, y la equivalencia de las dos es una consecuencia del teorema de representación de Riesz y Fischer. En la formulación final de Von Neumann, concluida en 1932 en La Matemática del siglo XX 133 el clásico Los fundamentos matemáticos de la mecánica cuántica, los infi- nitos estados de un sistema cuántico constituyen las coordenadas de un punto en un espacio de Hilbert, y las magnitudes físicas del sis- tema (por ejemplo, posición y cantidad de movimiento) están repre- sentadas por funcionales particulares o, en la terminología usual, por operadores particulares. La física de la mecánica cuántica se reduce así a la matemática de particulares operadores (lineales hermitianos) en espacios de Hilbert; por ejemplo, el famoso principio de indetermina- ción de Heisenberg (según el cual la posición y la cantidad de mo- vimiento de una partícula no pueden ser simultáneamente medidos con precisión arbitraria) se traduce a la no conmutabilidad de los dos operadores correspondientes. Fomentado por estas aplicaciones físicas, el estudio de los opera- dores que representan las magnitudes físicas de un sistema se con- virtió en una importante rama de la matemática moderna, bajo el nombre de álgebras de operadores de Von Neumann. Estas álgebras se pueden ractorizar de varias maneras; por ejemplo, en dos conjuntos de operadores, en los que los elementos del primero conmutan con los elementos del segundo. Además de estos factores, llamados de tipo I, existen otros dos tipos: II, y III. Una clasificación completa de los factores de tipo III fue dada por Alain Connes, que obtuvo por este trabajo la medalla Fields en 1983. Y de un estudio de los factores tipoII, Vaugham Jones derivó sus invariantes para los nudos, de los que hablaremos enseguida, y por este trabajo también él obtuvo una medalla Fields en 1990. En cuanto a los espacios de Banach, la teoría tropezó pronto con una larga serie de problemas de una dificultad aparentemente insal- vable, lo que provocó que decayeran durante algún tiempo. El re- surgimiento se produjo a partir de los años 1950, cuando las nuevas metodologías introducidas por los exponentes de la escuela france- 134 6. Matemática Aplicada sa, desde Laurent Schwartz hasta Alexandre Grothendieck, medallas Fields en 1950 y 1966, permitieron finalmente resolver muchos pro- blemas clásicos. El argumento está viviendo en este momento una tercera juventud, testimoniada por la asignación a Jean Bourgain y a William Gowers de la medalla Fields en 1994 y 1998. El primero de- terminó la máxima sección de un espacio de Banach que se parece al espacio de Hilbert. El segundo demostró que el único espacio de Ba- nach con mucha simetría (es decir, isomorfo a cada uno de sus subes- pacios) es el espacio de Hilbert, y que existen espacios de Banach con poca simetría (es decir, no isomorfos a ninguno de sus propios subes- pacios). 6.5. Teoría de la Probabilidad: La Axiomatización de Kolmogorov (1933) Los primeros problemas de naturaleza probabilística surgieron de la consideración de juegos de azar, en particular aquéllos relacio- nados con los dados. Uno de estos problemas, para nada banal, está citado en la Summa de Luca Pacioli, de 1494: si en un juego la victoria se obtiene cuando uno de dos jugadores alcanza primero n puntos, pero el juego se interrumpe cuando ellos han alcanzado respectiva- mente p y q puntos, ¿cómo se debe dividir la apuesta entre ellos? El problema fue discutido por Cardano en el Libel de ludo aleae, de 1526, en el que también se enuncia explícitamente la regla que indica que el cálculo de la probabilidad conjunta de dos eventos indepen- dientes se obtiene multiplicando sus probabilidades individuales. La correspondencia sobre el problema entre Blas Pascal y Pierre de Fermat, en 1654, marca la fecha de nacimiento oficial de la teoría de la probabilidad. La solución requirió algunas propiedades del de- nominado triángulo de Pascal, es decir, de los coeficientes del desa- rrollo binomial; se trata, en efecto, de calcular las probabilidades que La Matemática del siglo XX 135 tiene un jugador de vencer todos los puntos que quedan, todos me- nos uno, todos menos dos, y así sucesivamente, hasta el puntaje mí- nimo que, sumado a los puntos que ya tiene, le permite vencer el partido. En 1656, Christian Huygens publicó la solución de Pascal e intro- dujo el concepto de expectativa que consiste en saber cuánto se puede esperar ganar en promedio jugando un juego varias veces, y corres- ponde a cuánto se debería estar dispuesto a pagar para participar en el juego. Para Huygens una medición de la expectativa de provecho en una situación dada era el producto de la ganancia obtenible por la probabilidad de obtenerla; y una medición de la expectativa de ganancia total era la suma de las expectativas de ganancia por cada situación posible. Una paradoja de la noción de expectativa fue descubierta por Da- niel Bernoulli, en 1725: si un casino estuviera dispuesto a pagar una apuesta de 2n liras a un jugador si sale cabeza por primera vez al n- ésimo tiro, ¿cuánto debería estar dispuesto a pagar el jugador para poder participar en el juego? Puesto que en cada tiro la ganancia se duplica pero la probabi- lidad de llegar se divide, la expectativa de ganancia en cada tiro es siempre la misma, por lo tanto la expectativa de ganancia total es infinita. Entonces, el jugador debería estar dispuesto a jugar todo lo quetiene para poder participar, y esto contrasta con la obvia obser- vación de que cuanto más paga para jugar, menor es la probabilidad de que llegue a ganar más de cuanto ha pagado. La solución del dilema propuesta por Bernoulli reside en el hecho de que el valor del dinero no es absoluto, y depende, en cambio, de cuánto se tiene; unamisma suma vale mucho para quien tienemucho menos y poco para quien tiene mucho más. Entonces, para calcular la expectativa de ganancia se debe multiplicar la probabilidad no por 136 6. Matemática Aplicada la ganancia efectiva, sino por cuánto vale la ganancia para el jugador, es decir, por su utilidad; suponiendo, por ejemplo, que la utilidad de- crezca de manera logarítmica, la ganancia total cesa de ser infinita para hacerse muy pequeña y la paradoja desaparece. El primer libro sobre la teoría de la probabilidad fue Ars Conjec- tandi de Jacques Bernoulli, tío de Daniel, publicado en 1713. En este libro se formula la ley de los grandes números: si un evento ocurre m veces sobre n intentos, al crecer el número de intentos, la relación mn se acerca cada vez más a la probabilidad del evento. Esta ley permi- te, en teoría, calcular probabilidad a posteriori, cuando no sea posible efectuar a priori el cómputo de los casos favorables y posibles. Pero en la práctica, subsiste el problema de inferir estadística- mente la probabilidad de un evento desde el conocimiento parcial del hecho de que éste ocurrió m veces sobre n intentos. El problema fue afrontado en 1761 por Thomas Bayes, y su solución necesitó la formulación de la ley de Bayes: la probabilidad de que dos eventos ocurran simultáneamente es el producto de la probabilidad de que uno ocurra absolutamente, por la probabilidad de que el otro ocurra en relación con el primero. En 1777, Georges Louis Leclere, conde de Buffon, consideró el si- guiente problema de la aguja: dada una hoja con renglones, ¿cuál es la probabilidad de que una aguja de largo igual a la mitad de la distan- cia entre los renglones caiga sobre uno de ellos, cuando se deja caer casualmente sobre la hoja?. Puesto que la caída de la aguja depende de su ángulo de inclinación respecto de los renglones, se puede es- perar que la respuesta dependa de algún modo de π; puntualmente, Buffon demostró que la probabilidad es 1 π . Para la ley de los grandes números, se puede entonces aproximar el valor de π haciendo un gran número de tiros con la aguja; ésta fue la primera aplicación de aquello que hoy se llama método Montecarlo, que consiste en calcular La Matemática del siglo XX 137 una constante demostrando primero que es la probabilidad teórica de cierto evento, y realizando luego empíricamente un gran número de simulaciones prácticas de ese evento. En 1809, Gauss encontró la famosa curva de campana, de ecua- ción e−x 2 que describe la distribución de probabilidad de errores me- dios en las observaciones (Figura 27); la curva es simétrica, porque es igualmente probable que el error sea por defecto o por exceso; y se aplana hacia el infinito, porque la probabilidad de un error muy grande es muy pequeña. Naturalmente, existen muchas curvas que tienen estas propiedades: como se ve en el exponente, Gauss deri- vó la suya sobre la base del método de los mínimos cuadrados, según el cual la mejor aproximación a un conjunto de observaciones es la que minimiza el cuadrado de los errores. Figura 27. Curva de Gauss Todos estos desarrollos confluyeron en 1812 en el tratado Teoría analítica de las probabilidades, de Pierre Simon de Laplace. Él sistema- tizó el argumento, definiendo la probabilidad de un evento como la relación entre los casos favorables y los posibles, comprobando que el área definida por la gaussiana es √ π y considerando aplicaciones de todo tipo en las ciencias naturales y sociales. Entonces, si bien la probabilidad había alcanzado su madurez, todavía faltaba una definición abstracta; esta necesidad fue parte del 138 6. Matemática Aplicada sexto problema de Hilbert, y fue resuelto en 1931 por Andrej Kolmogo- rov, premio Wolf en 1980, quien inesperadamente utilizó a tal fin el concepto de medida de Lebesgue. La idea de Kolmogorov era definir axiomáticamente la probabi- lidad no sólo de eventos individuales, sino de conjuntos de eventos. Es decir, se trata de asignar a estos conjuntos un número compren- dido entre 0 y 1, con las siguientes propiedades: el conjunto vacío de eventos tiene probabilidad 0; el conjunto de todos los eventos posi- bles tiene probabilidad 1; y un conjunto de eventos que se obtiene “sumando” entre sí una cantidad numerable de conjuntos indepen- dientes de eventos, tiene una probabilidad equivalente a la suma de las probabilidades de éstos (aditividad numerable). En caso de que haya sólo una cantidad finita de eventos la de- finición descrita también permite asignar una probabilidad a even- tos independientes y equiprobables individuales. Por ejemplo, si los eventos son n, entonces el conjunto total debe tener por un lado pro- babilidad 1 y, por el otro, la suma de las probabilidades de los eventos individuales, que entonces deberán tener probabilidad 1n . 6.6. Teoría de la Optimización: El Método del Simplex de Dantzig (1947) Factores contrapuestos pero convergentes condujeron, en la pri- mera mitad del siglo XX, al desarrollo de la teoría programación eco- nómica. En la Unión Soviética, la planificación fue una consecuencia teórica del nacimiento del comunismo, y se concretó en la práctica de los planes quinquenales. En los Estados Unidos, la planificación fue una necesidad práctica del desarrollo del capitalismo, que dio ori- gen a la teoría de la búsqueda operativa para la gestión de grandes empresas. Fue sobre todo durante el esfuerzo bélico de la Segunda Guerra La Matemática del siglo XX 139 Mundial cuando surgieron problemas de naturaleza técnica, cuyos intentos de solución habrían llevado a la construcción de los ordena- dores por un lado, y a la programación lineal por el otro. Esta última, en particular, se propone encontrar la mejor asignación de cierto nú- mero de recursos, según un determinado criterio de optimización, el adjetivo “lineal” se refiere a la característica esencial del problema, que es imponer vínculos entre los recursos expresados en forma de inecuaciones lineales, y asignar un criterio de optimización expresa- do en forma de ecuación lineal. En el caso de sólo dos recursos, que entonces se pueden consi- derar como puntos de un plano, cada inecuación identifica un se- miplano. Excluyendo los casos en que no hay solución (intersección vacía) o no hay solución óptima (intersección ilimitada), el conjun- to de las inecuaciones identifica un polígono convexo, cuyos puntos constituyen las soluciones del problema: entre ellas, la optimización requiere elegir la mejor, según el criterio asignado. De todos modos, para encontrar esta solución no es necesario examinar todas las posi- bles soluciones y confrontar entre sí los valores del criterio de optimi- zación; basta considerar los vértices (ya que el polígono es convexo, cada punto interno está sobre un segmento cuyos extremos están so- bre el perímetro; y ya que el criterio es lineal, el valor máximo que asume sobre el segmento está en uno de los extremos, es decir, en el perímetro, y el valor máximo en el perímetro está en uno de los vértices). En el caso de una gran cantidad de recursos y de vínculos, en el que el polígono se convierte en politopo (y por lo tanto, un tipo particular de simplex) en un espacio multidimensional, limitarse al examen de todos sus vértices también puede presentar dificultades insuperables. La solución clásica al problema fue elmétodo del simplex, desarrollado en los años 1940 por George Dantzig, Leonid Kantoro- 140 6. Matemática Aplicada vich y Tjalling Koopmans, y por el cual los dos últimos obtuvieron el premio Nobel de economía en 1975. La idea del método, que se convirtió por su eficiencia práctica en uno de los algoritmos más usados en la historia de la matemática aplicada, es partirdesde un vértice particular del politopo, examinar todos los vértices a los que está conectado y moverse al que tiene el mejor valor del criterio de optimización. Si se sigue procediendo de esta manera, se alcanza un valor que es localmente óptimo; el hecho esencial es que, al ser un politopo convexo, un óptimo local es tam- bién un óptimo global, entonces el método siempre permite llegar al mejor resultado en absoluto. Una de las hipótesis necesarias para que funcione la programa- ción lineal es que los recursos puedan asumir valores fraccionarios; los vértices del politopo determinado por las inecuaciones se obtie- nen, en efecto, mediante soluciones de sistemas de ecuaciones linea- les, y en general pueden asumir valores no enteros. Pero si los recur- sos sólo deben asumir valores enteros, como frecuentemente ocurre en la práctica, no basta con optimizar el problema como si los recur- sos pudieran ser fraccionarios y redondear después las soluciones; en efecto, a veces ocurre que pequeñas variaciones hacen saltar el óptimo de un vértice a otro. Por lo tanto, fue necesario ampliar la programación lineal mediante técnicas que permiten resolver estos problemas, desarrolladas en el ámbito de la programación entera. Otra extensión necesaria fueron las técnicas para la solución de problemas no lineales. En este caso el método del simplex no fun- ciona por un motivo diferente, y es que sin la linealidad (y por lo tanto sin convexidad) ya no es cierto que un óptimo local siempre es un óptimo global. No existen métodos generales para la solución de problemas no lineales, pero se desarrollaron técnicas eficaces y potentes, por ejemplo, en el ámbito de la programación dinámica. La Matemática del siglo XX 141 6.7. Teoría del EquilibrioGeneral: El Teorema de Existencia de Arrow y Debreu (1954) En 1776, el mismo año de la revolución burguesa americana, el economista escocés Adam Smith publicó el tratado Sobre la riqueza de las naciones. Para justificar el liberalismo del laissez faire, introdujo la ficción retórica de una “mano invisible” que supuestamente guía el comportamiento individualista de los agentes económicos hacia fines no previstos por ellos, y que resultan ser socialmente útiles. Lamentablemente, la justificación del razonamiento se basaba en un círculo vicioso, condensado en el principio optimista: “todo lo que hay, es justo”. Los primeros intentos de fundar una ciencia sobre la filosofía económica de Smith debieron esperar hasta el siglo XIX. En 1838, Antoine-Augustine Cournot introdujo el uso de los instrumentos del cálculo infinitesimal, de las funciones a las derivadas, para describir los conceptos fundamentales de la economía. Y en 1874, Léon Wal- ras estableció un paralelo entre economía y mecánica, en el que la lev del mercado y el equilibrio económico se consideraban como los análogos de la ley de gravitación y del equilibrio mecánico, paralelo establecido a finales de siglo por Vilfredo Pareto, que consideró a los sujetos económicos individuales como análogos a las partículas. En particular, Walras enunció una teoría que sustituía la inefable mano invisible de Smith con la interacción entre oferta y demanda, y conjeturaba que el desarrollo del mercado tendía naturalmente ha- cia su equilibrio. Matemáticamente, se trata de expresar para cada mercancía la demanda y la oferta en función de los precios y de las disponibilidades de todas las mercancías, y de imponer que las dife- rencias entre demanda y oferta siempre sean nulas; en este caso, de cada mercancía se produciría exactamente la misma cantidad que se vende. Los problemas que se deben resolver son: ante todo, la exis- 142 6. Matemática Aplicada tencia y la unicidad de un equilibrio, es decir, de un sistema de precios que satisfaga todas las ecuaciones; además, la convergencia automáti- ca del sistema hacia el equilibrio, sobre la base de la ley de la oferta y la demanda, según la cual los precios suben cuando la demanda crece y bajan cuando disminuye; y finalmente, la estabilidad del equilibrio, en el sentido de que si el sistema también se aleja momentáneamente, siempre tiende a volver. Naturalmente, todo depende de la forma particular de las funcio- nes que expresan la oferta y la demanda por un lado, y la ley de la oferta y la demanda por el otro. Walras llegó a la definición de un sistema de ecuaciones no lineales y dedujo la existencia de una solu- ción a partir del hecho, ciertamente insuficiente, de que el número de ecuaciones fuera igual al numero de las incógnitas. En 1933, el eco- nomista Karl Schlesinger y el matemático Abraham Wald formula- ron un sistema distinto, y por primera vez dieron una demostración formal de la existencia de equilibrios. En 1938, John von Neumann introdujo dos ideas innovadoras. Ante todo, reformuló el problema no en términos de ecuaciones, co- mo se había hecho hasta entonces, sino de inecuaciones; esto abrió el camino para una formulación análoga de los problemas de optimiza- ción, y de la solución de los lineales mediante el método de simplex de Dantzig. Además, Von Neumann demostró la existencia de un equilibrio para un sistema particular reduciéndolo a un problema de minimax y utilizando entonces una versión del teorema del punto fijo de Brouwer. Las ideas de Von Neumann, tanto sobre la teoría de los juegos como sobre el equilibrio, alcanzaron su formulación defi- nitiva en 1944, en el ya mencionado libro La teoría de los juegos y el comportamiento económico. La característica esencial de la demostración de existencia de equi- librio de VonNeumann fue cambiar la atención desde las técnicas del La Matemática del siglo XX 143 cálculo diferencial clásico a la topología, es decir, desde los sistemas dinámicos a los sistemas estáticos. En 1954, Kenneth Arrow y Gerard Debreu, utilizando este nuevo enfoque y una particular extensión del teorema del punto fijo de Brouwer, demostrada en 1941 por Kakuta- ni, finalmente lograron demostrar la existencia de un equilibrio para las ecuaciones de Walras, en el caso que la ley de la oferta y la de- manda está formulada de la siguiente manera: la velocidad de varia- ción de precio de cada mercancía, y por lo tanto su derivada respecto del tiempo, es proporcional al exceso de la demanda, es decir, a la diferencia entre oferta y demanda de esa mercancía. Por este traba- jo, Arrow y Debreu obtuvieron el premio Nobel de economía en 1972 y 1983. Por lo tanto, el empleo del teorema del punto fijo de Brouwer permitió a Arrow y a Debreu evitar las dificultades conectadas con el estudio de la economía a través de los sistemas dinámicos, que en los años 1950 todavía no habían sido desarrollados suficientemente. Pero volvieron a estar de moda en la segundamitad del siglo, gracias también a la posibilidad de simulaciones computerizadas, y en 1982 Stephen Smale, medalla Fields en 1966 por otros trabajos que citare- mos enseguida, cerró el círculo del desarrollo histórico, volviendo a demostrar el teorema de Arrow y Debreu con los métodos concebi- dos originalmente porWalras, y sin usar en absoluto los teoremas del punto fijo. Naturalmente, para poder deducir del teorema de existencia del equilibrio conclusiones políticas, que reivindiquen de algunamanera el liberalismo de Adam Smith, se lo debería demostrar de manera más general que en la formulación simplificada de Arrow y Debreu; en particular, en una situación en que los mercados interactúan entre sí, y la variación del precio de cada mercancía depende (por ejemplo, de manera lineal) del exceso de demanda de todas las mercancías, y 144 6. Matemática Aplicada no sólo de la mercancía en cuestión. Desdichadamente para el capitalismo, en estas condiciones más generales el mercado tiende autónomamente nacía la situación de equilibrio sólo en el caso, bastante raro, de dos únicas mercancías. En 1960, Herbert Scarf demostró que, en cambio, bastan sólo tres mer- cancías para el sistema pueda ser globalmente inestable, y no sea en absoluto manejado por la fantasmal mano invisible. En 1972, Hugo Sonnenscheindemostró que el exceso de demanda global de un mer- cado puede asumir los valores de una función continua cualquiera; los equilibrios, es decir los ceros de las funciones, pueden entonces no existir; e incluso si existen, no es seguro que el mercado tienda ne- cesariamente hacia ellos, o vuelva automáticamente cuando se aleja. Si es posible extraer alguna conclusión política de estos desarro- llos matemáticos, es que la ley del mercado no parece en absoluto adecuada para conducirlo a una condición de equilibrio, y que só- lo la planificación puede hacerlo, sin intención de ofender a Adam Smith y a sus seguidores de fines del siglo XX, desde Margaret That- cher hasta Ronald Reagan. 6.8. Teoría los lenguajes formales: La clasificación de Chomsky (1957) Uno de los cambios más significativos en la lingüistica moderna fue el Curso de lingüística general de Ferdinand de Saussure, dictado en los años comprendidos entre 1906 y 1911 y publicado póstuma- mente en 1916. En el trabajo se delimita un enfoque estructural de las lenguas naturales, contrapuesto a los estudios históricos, filoló- gicos y comparados que estaban de moda hasta entonces. Saussure veía el lenguaje como un sistema constituido por dos partes; por un lado, una estructura fija, social e inmutable, de reglas para manipu- lar los signos (sonoros o escritos); por el otro lado, un uso variable, individual y creativo de la estructura para expresar los significados. La Matemática del siglo XX 145 Las ideas de Saussure mostraron la posibilidad de estudiar mate- máticamente la parte estructural de la lingüística, y más en general, las ciencias humanas; en efecto, él fue el precursor e inspirador del estructuralismo, que tuvo como objetivo el estudio de estructuras pro- fundas en las manifestaciones de las vivencias humanas, y se con- cretó en la antropología de Claude Lévi-Strauss, el psicoanálisis de Jacques Lacan y la psicología de Jean Piaget. Por su parte, también la concepción axiomática y formalista de la matemática llevó, natural e independientemente, a ideas paralelas a las de Saussure, es decir, que la actividad lingüística se pueda redu- cir a la generación de secuencias de símbolos según reglas formales, y que los signos estén ligados a los significados de manera conven- cional y arbitraria. No es casual que la primera formulación de reglas abstractas y formales para la descripción de las estructuras lingüísticas pertenez- ca al matemático Axel Thue, que las expresó, en 1914, en términos de producciones gramaticales de tipo x → y que debe interpretarse en el sentido de que cada vez que se encuentra una ocurrencia de x en una palabra, se la puede sustituir con una ocurrencia de y. Thue definió una gramática como un conjunto de producciones de este tipo, y formuló el llamado problema de la palabra, que consistía en decidir si dos palabras se pueden transformar una en la otra sobre la base de las producciones de la gramática. En 1921, Emil Post llegó independientemente a una formulación similar y demostró un resultado sorprendente, que hoy se puede ex- presar de la siguiente manera: los lenguajes que admiten una gramá- tica de Thue son exactamente aquellos que se pueden generar me- 146 6. Matemática Aplicada diante cualquiera de los típicos lenguajes de programación de los ordenadores. En otras palabras, simples producciones gramaticales son suficientes para describir todo lo que los más complicados pro- gramas para ordenadores pueden hacer, en particular, todos los tipos posibles de lenguaje formal o mecánico. Sólo faltaba tratar el caso de los lenguajes humanos. A esto se dedicó, en 1957, el lingüista Noam Chomsky, que en Estructuras sin- tácticas realizó los primeros pasos de un trabajo que habría debido conducir a la descripción completa de una gramática de Thue para el inglés; un proyecto que jamás fue completado, y cuya dificultad parece haber indicado una insuficiencia estructural del enfoque pu- ramente matemático en el estudio del lenguaje natural. De todos modos, el trabajo de Chomsky llegó a un resultado fun- damental para la teoría de los lenguajes formales: una clasificación de éstos sobre la base del tipo de producciones gramaticales permitidas en su gramática. Y, puesto que los mismos tipos de lenguajes resul- taron ser expresables también sobre la base del tipo de ordenadores capaces de generarlos, el resultado constituyó el punto de partida de la teoría de los lenguajes formales para ordenadores, es decir, de la lingüística informática. La clasificación de Chomsky aisla cuatro tipos de lenguajes: uni- versales, sensibles al contexto, independientes del contexto y regulares. Sus- tancialmente, en el primer tipo no hay restricciones para el tipo de producciones gramaticales, y por lo tanto, es posible sustituir cual- quier parte de una palabra con otra. En el segundo tipo, se permite la sustitución de una parte de una palabra sólo en contextos particula- res, especificados por las producciones. En el tercer tipo, se permite sustituir sólo una única letra con una parte de una palabra. En el cuarto tipo se permite sustituir una única letra sólo con otra única letra. La Matemática del siglo XX 147 La clasificación se corresponde con la de los ordenadores o autó- matas capaces de generar los distintos lenguajes: universales, limitados linealmente, push-down y finitos. Sustancialmente, en el primer tipo no hay restricciones para la memoria del ordenador. En el segundo tipo, no se permite que el ordenador use una memoria más grande que el input. En el tercer tipo, se permite que el ordenador memorice datos sólo como en las pilas de bandejas de los selfservice, donde las pri- meras bandejas puestas en la pila serán las últimas en ser sacadas, y viceversa. En el cuarto tipo, se permite que el ordenador sólo lea, pero no memorice los datos. Aunque desde el punto de vista lingüístico las gramáticas más interesantes sean las que son sensibles al contexto, desde el punto de vista informático resultaron más útiles las que son independientes del contexto y las regulares, y sus teorías se han convertido actual- mente en una parte esencial de la informática teórica. En cuanto a la matemática pura, las aplicaciones más interesan- tes de la lingüística formal son las que se relacionan con el problema de la palabra propuesto por Thue. En efecto, muchas estructuras al- gebraicas se presentan naturalmente bajo la forma de producciones, por ejemplo grupos y semigrupos (que son una versión más débil de los grupos, donde no se requiere la existencia de los inversos). Post y Anatoly Markov, en 1944 y en 1947 respectivamente, de- mostraron que no existe ningún algoritmo para decidir el problema de la palabra para los semigrupos; esto constituyó el primer ejemplo de indecibilidad de un problema no artificial, y demostró que las li- mitaciones de los sistemas formales descubiertas por Gödel, Church y Turing no sólo atañen a los fundamentos teóricos, sino también a la práctica matemática. Pavel Novikov y William Boone, en 1955 y en 1959 respectiva- mente, demostraron que incluso el problema de la palabra más difí- 148 6. Matemática Aplicada cil para los grupos es indecible. Debido a la conexión con los grupos fundamentales de la topología algebraica, de los que hablaremos en- seguida, este resultado llevó a la indecibilidad de muchos problemas topológicos; por ejemplo, si una superficie es conexa, o si dos super- ficies son topológicamente equivalentes. 6.9. Teoría de los Sistemas Dinámicos: El Teorema Kam (1962) El estudiomatemático del movimiento de los cuerpos se hizo teó- ricamente posible gracias a los descubrimientos de Newton, en los años comprendidos entre el 1664 y el 1666, del cálculo infinitesimal por un lado y de las tres leyes del movimiento por el otro: el princi- pio de inercia, la famosa ecuación F = ma, y el principio de acción y reacción. En el caso particular del movimiento de los cuerpos ce- lestes, la fuerza en juego está especificada por la ley de gravitación universal: la atracción ejercida porun cuerpo es proporcional a su masa, e inversamente proporcional al cuadrado de su distancia. Por ejemplo, en el primer libro de los Principia, Newton demos- tró que el movimiento de un planeta alrededor del Sol obedece a las tres leyes de Kepler, enunciadas en 1618: la órbita es elíptica, con el sol en uno de los focos; el área recorrida es proporcional al tiempo empleado para recorrerla; y el cuadrado del año planetario es (apro- ximadamente) proporcional al cubo de la distancia media desde el Sol al planeta. Pero en la práctica, los planetas no sólo están sujetos a la fuerza gravitacional del Sol, sino que se influyen recíprocamente; esto hace que sus órbitas no sean ni perfectamente elípticas, ni necesariamen- te cerradas. Además, el sistema solar no sólo está constituido por el Sol y los nueve planetas, sino también por un número impreciso de satélites, cometas y asteroides; por lo tanto, el problema de su movi- miento no es para nada obvio. La Matemática del siglo XX 149 El caso del Sol y de un planeta es muy especial, porque uno de los dos cuerpos tiene una masa insignificante respecto del otro; se puede suponer entonces que el más grande está detenido y el otro gira al- rededor. Newton demostró que la solución es semejante también en el caso general, donde ambos cuerpos se mueven en órbitas elípticas, con el baricentro del sistema en un foco común. Una vez resuelto de este modo el caso de dos cuerpos, el paso su- cesivo fue la solución del problema de los tres cuerpos; ejemplos parti- cularmente interesantes de este problema son el caso del Sol, la Tierra y la Luna, o el Sol y dos planetas. Es posible obtener soluciones apro- ximadas resolviendo primero el problema para dos cuerpos y pertur- bando luego la solución de manera que se considere la influencia del tercer cuerpo; éste método fue utilizado por Newton en 1687 para calcular la perturbación del Sol en el movimiento de la Luna alrede- dor de la Tierra, y por Euler en 1748 para calcular las perturbaciones recíprocas de Júpiter y Saturno en su movimiento alrededor del Sol. En 1772, Joseph Louis Lagrange encontró soluciones exactas de casos especiales del problema de los tres cuerpos. Por ejemplo, com- probó que es posible que tres cuerpos se muevan en tres órbitas elíp- ticas, con el baricentro del sistema en un foco común. O bien, que si tres cuerpos se encuentran en los vértices de un triángulo equiláte- ro, el triángulo rota en torno al baricentro del sistema y los cuerpos quedan anclados a los vértices; un caso que, como se descubrió en 1906, realiza el sistema constituido por el Sol, Júpiter y el asteroide Aquiles. Entre 1799 y 1825, aparecieron los cinco volúmenes de la Mecáni- ca Celeste de Laplace, que constituyeron la coronación de un siglo y medio de descubrimientos. En particular, Laplace pudo declarar que la evolución pasada y futura del universo se habría podido calcu- lar completamente, si tan sólo se hubieran conocido la posición y la 150 6. Matemática Aplicada velocidad de cada cuerpo en un único instante. No obstante el optimismo de Laplace, todavía quedaban abier- tos dos problemas fundamentales. Por un lado, la solución exacta del caso general del problema de tres o más cuerpos. Por el otro, la cuestión de la estabilidad de las soluciones; por ejemplo, si pequeñas perturbaciones del movimiento de un planeta pueden producir sólo pequeñas variaciones de su órbita, o si son capaces demandarlo com- pletamente a la deriva. En particular, si el efecto acumulativo de las perturbaciones recíprocas de los distintos planetas es suficiente para arrojar a alguno fuera de órbita y, eventualmente, fuera del sistema solar o si, en cambio, éstos se mantendrán siempre sustancialmente en la situación actual. El problema de la estabilidad del sistema solar llegó a oídos del rey de Suecia, Óscar II, que lo colocó en la lista de los problemas cuya resolución habría merecido un premio especial, instituido en 1885 para “honrar su sexagésimo aniversario, y brindar una prueba de su interés por el avance de las ciencias matemáticas”. E1 premio fue asignado en 1889 a Poincaré, que no logró decidir si el sistema solar es estable o no, pero logró hacer un salto de calidad en el estudio de los sistemas dinámicos. Poincaré introdujo lo que él mismo denominó en el título de una trilogía, publicada entre 1892 y 1899, Los Nueve Métodos de la Mecánica Celeste, en particular, el estu- dio topológico de las ecuaciones diferenciales no lineales, que hasta entonces habían sido dejadas de lado por su dificultad. La distinción entre órbitas estables e inestables está conectada, de manera insospechable, a problemas de la teoría de los números. Por ejemplo, la relación entre los años planetarios de Júpiter y Saturno es de 5 a 2, es decir, un número racional; esto permite que cada 10 años los dos planetas se encuentren en las mismas posiciones, y que sus perturbaciones recíprocas puedan amplificarse en teoría como en un La Matemática del siglo XX 151 efecto de resonancia, hasta producir efectos desestabilizantes. La traducción matemática de la dificultad es el llamado proble- ma de los pequeños divisores: expresando la perturbación recíproca de los dos planetas en forma de suma infinita (una, así llamada, serie de Fourier), la relación racional 52 hace que muchos de los coeficien- tes de los términos de la suma tengan pequeños divisores y que, por lo tanto, sean muy grandes, esto tiende a hacer crecer la suma hada el infinito. Y el trabajo de 270 páginas con el que Poincaré ganó el “premio Óscar” parecía indicar precisamente que tales sumas fue- ran efectivamente infinitas y que, por lo tanto, las órbitas no fueran estables. E1 problema de la estabilidad fue retomado en 1954 por Kolmo- gorov, que indicó los lineamientos para una solución y su proyecto fue completado por Vladimir Arnol’d y Jürgen Moser en 1962, en un trabajo que es denominado globalmente teorema KAM, por las inicia- les de los tres autores. La solución es que, para perturbaciones pe- queñas, la mayoría de las órbitas es estable; éstas no son periódicas, pero se mantienen cerca de las órbitas periódicas del sistema no per- turbado, y por esto se llaman cuasi-periódicas. La esenciamatemática del teorema KAM es que el problema de los pequeños divisores se presenta efectivamente cuando nos encontra- mos frente a períodos racionales, o bien aproximables por racionales (o sea, mediante fracciones de denominador relativamente pequeño), pero no se presenta en otro caso; dado que la mayoría de los números reales está constituido precisamente por números no bien aproxima- bles por racionales, el problema no se presenta en la mayoría de los casos. El interés que suscitaron el teorema KAM y sus respectivas proble- máticas es considerable. En la dirección de la matemática más pura, el resultado original les valió a Kolmogorov y Moser el premio Wolf 152 6. Matemática Aplicada en 1980 y 1994/1995, una reciente generalización del mismo le valió a Jean Christophe Yoccoz una medalla Fields en 1994. En la dirección complementaria de la matemática más aplicada, la teórica estabili- dad de las órbitas de los planetas en el sistema solar se traduce en la concreta estabilidad de las órbitas de las partículas en los acelera- dores, esencial para que no pierdan su energía en golpes contra las paredes, y la relevancia del teorema deriva del hecho de que el nú- mero de las órbitas de las partículas en un experimento es tan grande que se puede comparar con el número de las órbitas de los planetas en el curso de toda la vida del sistema solar. 6.10. Teoría de los Nudos: Los Invariantes de Jones (1984) Según la leyenda, en Gordion de Frigia (hoy en Turquía) el ca- rro del rey Midas estaba atado a su yugo con un nudo tan estrecho y complicado, que se decía que el que hubiera logrado desatarlo se habría convertido en rey del mundo entero. Alejandro Magno llegó a Gordion en el año 333 a.C., y después de algunos intentos infructuo- sos cortó el nudo con la espada. Naturalmente, el problema siguiósin solución; la solución de un nudo requiere en efecto que sea desatado sin romperlo, por lo tanto, es de naturaleza topológica. En 1848, Johann Listing, estudiante de Gauss, acuñó el nombre topología y publicó el primer libro sobre ese tema, en el cual una gran parte estaba dedicada al estudio de los nudos, es decir, de las cur- vas cerradas en el espacio (Figura 28). Como curvas, los nudos no son otra cosa más que superficies de una sola dimensión, por eso es natural observarlos desde un punto de vista topológico, como si estuvieran hechos de finísimos hilos de goma con las extremidades unidas, e intentar clasificarlos como hicieron Riemann, Moebius y Klein con las superficies de dos dimensiones, y Thurston con las de tres dimensiones. La Matemática del siglo XX 153 Según determinados criterios, existe una conexión entre la teoría de los nudos y la teoría de las superficies. De hecho, dado un nudo, se puede imaginar su soporte no como una curva abstracta y matemá- tica cuya sección está reducida a un punto, sino como un tubo sólido y físico, cuya sección es un círculo. Considerar la superficie bidimen- sional del tubo no conduce demasiado lejos, porque desde un punto de vista topológico ésta siempre equivale a un toro, para cualquier nudo. Sin embargo, se puede considerar la superficie tridimensional que es el calco del tubo, o sea el espacio entero menos el tubo mismo (incluido el ulterior); la estructura del nudo resulta ser la estructura de los agujeros de esta superficie, y en su estudio se pueden aplicar todos los instrumentos topológicos clásicos. Nudo nulo Tréboles o nudos simples Tetrafolios o nudos planos Figura 28. Nudos Pero este enfoque es muy indirecto, y la teoría de los nudos se de- dicó a asignarles directamente invariantes que, como dice el nombre, 154 6. Matemática Aplicada no cambian cuando el nudo está sujeto a deformaciones topológicas, o sea, cuando el hilo de goma con el que el nudo está constituido es estirado o empujado, sin romperlo. Muchos de estos invariantes se pueden deducir implícitamente desde la superficie asociada, pero el problema es definir los explícitos que se pueden obtener directamen- te de la figura del nudo. El invariante más simple que se pueda imaginar es el número que cuenta cuántas veces el hilo se intersecta, cuando está colocado sobre un plano; naturalmente, deformaciones del nudo pueden cambiar tal número, por ejemplo, haciéndolo dar vueltas inútiles sobre sí mismo; entonces, para obtener un invariante se debe tomar el mínimo núme- ro necesario para representar el nudo dado. Pero esto hace casi inútil el invariante, porque para poder calcularlo se necesita, en la práctica, saber ya qué tipo de nudo se está considerando. En 1910, Max Dehn introdujo una descripción algebraica de los nudos, que le permitió probar que existen diferentes nudos; en otras palabras, que no todos los nudos se pueden desatar, reduciéndolos al nudo nulo (un círculo) mediante oportunas deformaciones, y sin romperlos. Esto es obvio intuitivamente, por ejemplo, para el trébol (o nudo simple), pero el problema era demostrarlo matemáticamen- te. En 1928, James Alexander definió como invariante un polinomio que, además de las simples intersecciones, considera también el mo- do en que ocurren (la variable del polinomio representa el meridiano del nudo). Cuando se suman dos nudos, sus polinomios de Alexan- der se multiplican; puesto que el polinomio asignado al trébol es x2¯x + 1, y el tetrafolio (o nudo plano) es la suma de dos tréboles, polinomio será (x2 − x+ 1)2 = x4 − 2x3 + 3x2 − 2x+ 1. La Matemática del siglo XX 155 Del hecho de que dos nudos tienen polinomios distintos se puede deducir que también ellos son distintos; entonces, trébol y tetrafolio no pueden obtenerse uno del otro, por deformación; y hay infinitos nudos distintos, porque cada polinomio (simétrico) es el polinomio de un nudo. Sin embargo, dos nudos pueden ser distintos aun te- niendo el mismo polinomio, y esto es lo que ocurre con los tréboles dextrorso y sinistrorso. En 1984, Vaughan Jones definió como invariante un nuevo tipo de “polinomios” (entre comillas, porque los exponentes de la variable también pueden ser negativos), que también considera el lado en que las intersecciones ocurren y, por lo tanto, permite distinguir entre sí los dos tréboles; en efecto, sus “polinomios” son, respectivamente, −x4 + x3 + x y 1 x4 + 1 x3 + 1 x . Jones llegó a sus “polinomios” de manera indirecta, estudiando las álgebras de Von Neumann, e inmediatamente descubrió una ulterior e inesperada conexión con la mecánica estadística; por estos resulta- dos y por la fecundidad de sus invariantes, Jones obtuvo la medalla Fields en 1990. No obstante estos desarrollos, todavía no se ha encontrado una clasificación completa de los nudos. En particular, todavía no se ha encontrado un invariante completo, es decir, uno que permita dis- tinguir entre sí todos los nudos que en efecto son distintos (el mejor invariante actual se debe a Maxim Kontsevich, y le valió la medalla Fields 1998). Incluso en este estado incompleto, las aplicaciones de la teoría de los nudos son extremadamente significativas. Comenzando por la física, en 1867 lord Kelvin propuso una teo- ría según la cual los átomos eran nudos en el éter, llamados átomos de vórtice, análogos a las espirales de humo en el aire. La idea, aparen- 156 6. Matemática Aplicada temente extravagante, se basaba en un teorema de Hermann Helm- holtz según el cual un vórtice en un fluido perfecto, una vez creado, se mantiene indefinidamente. Kelvin se inspiró en experimentos de Peter Tait con anillos de humo, que rebotaban elásticamente y exhi- bían interesantes modos de vibrar. La ventaja de esta teoría era que los nudos se mantenían juntos por puras uniones topológicas, sin que hubiera necesidad de hacer intervenir fuerzas atómicas especí- ficas. La propuesta estimuló un estudio de diez años acerca de los nudos, por parte de Tait,y produjo una tabla bastante completa y de- tallada de los nudos que tienen hasta 10 intersecciones, pero la teoría de Kelvin fue abandonada cuando el modelo de Bohr, que veía al átomo como un sistema solar en miniatura, tomó la delantera. Los nudos siguen siendo de actualidad gracias a la teoría de las cuerdas (en italiano teoría delle stringhe del inglés strings,“cuerdas”) que deberían ser los constituyentes últimos de la materia, y de las cuales las partículas elementales serian modos de vibración en espa- cios multidimensionales. En realidad, hay varias teorías de las cuer- das; en la más simple las cuerdas son abiertas y unidimensionales como pedacitos de hilo con quark pegados en las extremidades, pe- ro en otras pueden ser cerradas, precisamente como los nudos de los que ya hemos hablado. En teorías más recientes, las cuerdas uni- dimensionales están sustituidas por membranas pluridimensionales, abiertas o cerradas. Muchas de las ideas matemáticas de la teoría de las cuerdas tie- nen origen en los pirotécnicos trabajos de Edward Witten, que han influido profundamente en la matemática de los últimos años y le valieron la medalla Fields en 1990. Witten encontró insospechadas re- laciones de la teoría de las cuerdas con las áreas más dispares de la matemática; por ejemplo, el monstruo de Fischer-Griess en teo- ría de los grupos, los polinomios de Jones en teoría de los nudos, y La Matemática del siglo XX 157 los espacios exóticos de Donaldson en topología resultan ser todos aspectos de particulares teorías topológico-cuánticas de campo, res- pectivamente de 2, 3 y 4 dimensiones. Este punto de vista por un lado permite explicar algunas mis- teriosas simetrías de estos objetos y, por otro, ampliar su alcance de manera sustancial. Por ejemplo, fue precisamente usando la teoría de las cuerdas que Maxim Kontsevich y Richard Borcherds obtuvieron resultados que les valieron la medalla Fields en 1998. El primero pu- do generalizar los polinomios de Jones y obtener nuevos invariantes, no sólo para los nudos sino también para las superficiestridimensio- nales (los polinomios de Jones resultaron ser integrales de Feynman calculados sobre una superficie particular, cuya definición se obtie- ne de la teoría de las cuerdas). El segundo en cambio logró resolver la conjetura Claro de Luna, propuesta por John Conway y Simon Nor- ton en 1979, que vincula el monstruo de Fischer- Griess con la teoría de las funciones elípticas, introducida en 1827 por Niels Abel y Carl Jacobi (el monstruo resultó ser el grupo de los automorfismos de un álgebra particular, cuyos axiomas se obtienen de la teoría de las cuer- das). En las versiones recientes de la teoría de las cuerdas juegan un rol esencial las variedades de Calabi-Yau, del que ya hemos hablado. En una primera fase, llamada de la supersimetría, se descubrió que la imposición de una fuerte necesidad de invariabilidad en la teo- ría de las cuerdas requería precisamente la modelización mediante una variedad de Calabi-Yau; las 3 dimensiones complejas de la varie- dad corresponden a 6 dimensiones reales, que agregadas a las 4 del espacio-tiempo llevan el número total de las dimensiones a 10. En una segunda fase, llamada de la simetría especular, se descubrió que en realidad era posible modelar la teoría física mediante dos varie- dades distintas de Calabi-Yau, y que algunos de los cálculos difíciles 158 6. Matemática Aplicada en una de las dos resultaban ser fáciles en la otra, y viceversa; man- teniendo así las dos posiciones, fue posible dar pasos esenciales en la búsqueda de una teoría del todo que describa de manera unitaria toda la física moderna. Otro tipo de aplicación de la teoría de los nudos es el estudio de la estructura del ADN, que está constituido por un largo filamento de genes plegado sobre sí mismo: una cadena de aproximadamente un metro de largo, que está en el núcleo de una célula, de 5millonésimos de metro de diámetro (más o menos como si un hilo de 200 km mera replegado en una pelota de fútbol). Cuando el ADN se rehace, se divide en dos copias idénticas, el problema es entender cómo puede ocurrir esto de manera eficiente, si ya la análoga división de los hilos que componen una cuerda produce complicados anudamientos. Los invariantes de Alexander no fueron capaces de afrontar los pliegues del ADN, pero los invariantes de Jones ya han producido resultados interesantes también en este campo. 7 La Matemática y el Ordenador El ordenador está cambiando la vida cotidiana de manera sustan- cial, no sólo la del hombre común, sino también la del matemático. Como ocurre a menudo con la tecnología, muchos cambios no resul- tan del todo favorables, y las aplicaciones matemáticas del ordenador no son una excepción: por ejemplo, cuando se lo utiliza como un au- tista savant en la trabajosa e irrelevante búsqueda de números primos cada vez más grandes. Sólo a modo de información: el récord a fina- les del siglo XX era 26972593 − 1, un número de casi dos mil millones de cifras. Los peligros que encierra un uso despreocupado del ordenador pueden ejemplificarse claramente con el siguiente episodio, que com- prueba de qué manera confiar indiscriminadamente en su potencia puede convertirse en un obstáculo, en vez de un estímulo, para el pensamiento matemático. En 1640, Fermat había conjeturado que los números con la forma 22 n + 1 eran todos primos, basándose en el he- 159 160 7. La Matemática y el Ordenador cho de que así es para n desde 0 hasta 4: en estos casos se obtienen los números 3,5,17,257 y 65.537, que en efecto son primos. Actualmente, un ordenador puede verificar con facilidad, por fuerza bruta, que la conjetura resulta falsa para n = 5, ya que 22 5 + 1 = 232 + 1 = 4.294.967.297 = 641× 6.700.417. Pero una sistemática búsqueda manual de los posibles divisores era y es imposible. En 1736, Leonhard Euler la evitó demostrando, con una ingeniosa y drástica reducción, que era suficiente limitarse a considerar divisores de tipo 64k + 1: así, el divisor 641 se encuentra en el décimo intento (k = 10). De esta manera, la falta del ordenador obligó a Euler a trasladar el problema desde la contabilidad básica a la alta matemática y a resolver uno de los curiosos problemas de Fermat mediante uno de sus sorprendentes teoremas. Sólo a modo de información, no se conocen otros números de Fermat que sean primos, y en 1990 el esfuerzo conjunto de mil ordenadores permitió emular, para n = 9, lo que Euler había hecho a mano para n = 5, sin obtener, por otra parte, ningún resultado matemático interesante. Entonces, tanto los detalles de un episodio significativo, como la generalidad del lema de las Investigaciones filosóficas de Wittgenstein, advierten que “el progreso parece siempremás grande de lo que real- mente es”. En otras palabras, no se deben exagerar dogmáticamente los efectos del uso del ordenador, ni en matemática ni en otras áreas, como suele hacer la prensa de divulgación, sino que deben ser exami- nados con sentido crítico; esto permitirá resaltar mejor los contornos del verdadero progreso en el horizonte del desarrollo aparente. Ante todo, se debe decir que la eventual influencia del ordenador en la matemática sería en todo caso sólo un favor intercambiado. En efecto, si bien es cierto que generalmente 188 teorizaciones científi- La Matemática del siglo XX 161 cas derivan de las realizaciones tecnológicas, en este caso ha ocurrido exactamente lo contrario: de hecho, la construcción de los primeros ordenadores electrónicos fue el punto de llegada de un desarrollo matemático que duró un siglo entero y que tuvo tres etapas sustan- ciales. La primera idea fundamental fue introducida en 1854 por George Boole, en su famoso libro Investigación de las leyes del pensamiento. En esta obra se describía la formulación algebraica del comportamiento semántico de las partículas lingüísticas más simples, como la con- junción y la negación, que hoy se denomina álgebra de Boole. Frege y Russell retomaron la idea de tratar en formamatemática las leyes que regulan el pensamiento, y la aplicaron con éxito en toda la lógica. Y la Inteligencia Artificial de posguerra intentó, por ahora con escaso éxito, extender la formalización del pensamiento, incluso fuera del ámbito lógico y racional. La segunda y decisiva idea fue introducida por Alan Turing en 1936. A partir, precisamente, del cálculo lógico de Frege y Russell, este científico demostró que no existe una manera de decidir, dada una fórmula de cálculo, si ésta es válida o no: en otras palabras, es imposible mecanizar la semántica del razonamiento lógico, del mis- mo modo en que se había hecho con su sintaxis. Para demostrar este resultado de imposibilidad, Turing introdujo la noción de una má- quina abstracta capaz de ejecutar todas las tareas formales posibles y mostró que no era capaz de resolver el problema de la decisión. Para describir hoy la máquina de Turing, basta decir simplemente que era el proyecto teórico de un ordenador universal moderno. Sin embargo, para construir físicamente tal máquina se necesita- ba una última idea, que nació de la colaboración entre un neurofi- siólogo y un matemático: Warren McCulloch y Walter Pitts. Puesto que se trataba de dotar a la máquina de Turing de un cerebro capaz 162 7. La Matemática y el Ordenador de guiarla en la ejecución de sus tareas, en 1943 estos científicos pro- pusieron un modelo abstracto del sistema nervioso, basado en una simplificación del sistema humano, y demostraron que se lo podía sintetizar mediante cables eléctricos, cuyas conexiones ocupaban el lugar de las neuronas y donde, al pasar o al dejar de pasar la corriente eléctrica se representaba la presencia o la ausencia de una respuesta sináptica. Y aquello que las redes neuronales podían realizar resultó ser exactamente el álgebra de Boole. El ordenador electrónico no es más que la realización práctica del sistema compuesto por la máquina de Turing y la red neuronal de McCulloch y Pitts: esta red confiere a la máquina de Turing un cere- bro capaz de ejecutar las decisiones lógicas más elementales, gracias al cualla máquina puede efectuar todas las tareas mecánicas posi- bles, salvo las decisiones que requieren una lógica superior. Estos avances influyeron en parte en los dos proyectos que con- dujeron a la construcción de los primeros ordenadores electrónicos; el ENIAC, o Electronic Numerical Integrator and Calculator conduci- do en los Estados Unidos por Von Neumann; y el ACE, o Automatic Computing Engine conducido en Gran Bretaña por el mismo Turing, ambos alrededor de la década de 1950. Por lo tanto, si el ordenador es hijo de la investigación matemática de la primera mitad del siglo, no podemos sorprendernos de que manifieste indicios del patrimonio genético que le fue transmitido. La primera aplicación matemática de la nueva máquina fue, na- turalmente, el uso de sus poderes computacionales: es más, su mis- ma concepción había sido estimulada precisamente por la esperanza de poder automatizar la enorme cantidad de cálculos que requerían los esfuerzos bélicos, que Turing había experimentado en persona en su trabajo de contraespionaje y Von Neumann en la construcción de la bomba atómica. Este uso del ordenador con fines de cálculo, que La Matemática del siglo XX 163 sigue siendo el más común, es el responsable de su nombre1. Los beneficios de poder realizar con rapidez una gran cantidad de cuentas también se han hecho sentir, sin dudas, en la matemática pu- ra. E1 caso más conocido es ciertamente la demostración interactiva del teorema de los cuatro colores de Kenneth Appel y Wolfgang Haken, que en 1976 requirió una ayuda del ordenador de miles de horas de tiempo máquina. Pero el primer teorema demostrado completamen- te por un ordenador, sin ayuda del hombre, es del año 1997: se trata de la conjetura de Robbins, propuesta por Herbert Robbins en 1933, que afirmaba que un sistema de tres ecuaciones era una axiomatiza- ción de la teoría de las álgebras de Boole, y que fue demostrada por un programa escrito por William McCune y Larry Wos. Sin embargo, es en la matemática aplicada donde, naturalmen- te, los usos del ordenador están provocando los efectos más visibles. Por ejemplo, hasta la segunda mitad del siglo XX, el estudio de los sistemas dinámicos requería un proceso de tres pasos: la descripción del sistema en términos matemáticos, la solución explícita del siste- ma y la descripción gráfica de la solución. Por lo general, el estudio se empantanaba después del primer paso, a causa de la dificultad de la descripción del sistema, que impedía su solución: esto había pro- ducido la exclusión de los sistemas complejos y la concentración en sistemas cuya descripción fuera suficientemente simple como para poder resolverla. De todos modos, si se lograba obtener soluciones, tanto explícitamente como mediante procesos de aproximación, su representación gráfica podía resultar imposible, a causa de la enor- me cantidad de cálculos necesarios. El uso del ordenador permitió resolver no sólo el segundo proble- ma, sino también el primero: en efecto, enmuchos casos se puede evi- tar encontrar soluciones explícitas de la descripción matemática de 1En italiano ordenador se dice calcolatore. [N. de la T.] 164 7. La Matemática y el Ordenador un sistema y obtener una descripción gráfica de su comportamiento directamente, mediante una simulación. Esto permitió estudiar toda una clase de sistemas que jamás se habían podido abordar, y el naci- miento de la que hoy se denomina teoría del caos, la que, no obstante su nombre, estudia precisamente sistemas que no son en absoluto caóticos, pero que son tan complejos que lo aparentan a primera vis- ta. La metáfora más conocida de los sistemas caóticos es la del efecto mariposa, cuyo aleteo en un continente podría desencadenar un hu- racán en el otro lado del planeta. Y una de las clásicas aplicaciones del ordenador, ya iniciada por el mismo Von Neumann y retomada por Edward Lorenz, es justamente la simulación del tiempo atmos- férico, que hizo posibles las previsiones a corto plazo y que generó una de las imágenes más conocidas del caos: un extraño atractor con forma, casualmente, de alas de mariposa. A propósito de imágenes, no se deben olvidar los desarrollos de la gráfica computerizada: ubicuas en las aplicaciones comercia- les, también están adquiriendo un rol importante en la matemática pura, como soporte visual. Los casos más representativos fueron los descubrimientos de nuevas superficies, que habrían sido difíciles de visualizar utilizando sólo el ojo de la mente: las superficies minima- les encontradas en 1983 por David Hoffman y William Meeks, de las que ya hemos hablado (Figura 7); y la llamada Venus etrusca de Don- na Cox y George Francis, descubierta en 1988 (Figura 29). Las imágenes más célebres, gracias también a su calidad visual, y que algunos llegan a considerar la expresión de una nueva forma de arte, son las de los fractales; las curvas autosimilares descubiertas a comienzos del siglo XX como una curiosidad, abandonadas por un tiempo debido a la dificultad para ser representadas, y que volvie- ron con ímpetu a escena en la década de 1980, gracias al trabajo de La Matemática del siglo XX 165 Benoît Mandelbrot. Precisamente, a este matemático se debe el des- cubrimiento de una especie de fractal universal que, al ser examina- do con un microscopio, aparece como un inagotable contenedor de sorprendentes detalles, y cuyas imágenes se convirtieron en el sím- bolo del fecundo potencial de un uso cuidadoso del ordenador en la matemática. De este modo, una vez introducido en rasgos generales el pro- blema de la relación recíproca entre matemática e informática, pa- semos ahora a examinar en detalle algunas de las más interesantes aplicaciones del ordenador en a investigación matemática, a las que ya hemos hecho referencia. Figura 29. Venus etrusca 7.1. Teoría de Algoritmos: La Caracterización de Turing (1936) En el Congreso Internacional de Bolonia de 1928, Hilbert propu- so (nuevamente) otro de sus famosos problemas, el llamado Ents- cheidungsproblem, o “problema de la decisión”: demostrar que existe un algoritmo para decidir si una proposición es consecuencia lógica de otras. 166 7. La Matemática y el Ordenador Lo interesante del problema era el hecho de que las distintas ra- mas de la matemática se pueden presentar demanera uniforme a tra- vés de sistemas de axiomas, de donde se derivan los teoremas usan- do sólo la lógica. Por lo tanto, un algoritmo como el que requería Hilbert habría permitido a los matemáticos concentrarse en la parte más placentera de su trabajo, es decir, en la formulación de axiomas y la enunciación de enunciados interesantes, y dejar al algoritmo la parte más pesada, o sea, la demostración de los enunciados a partir de los axiomas. De todos modos, el problema no era sólo la expresión de un de- seo piadoso. En 1922, Emil Post ya había dado un paso fundamental, al demostrar que la parte de la lógica llamada proposicional, que es- tudia las partículas lingüísticas denominadas conectores (“no”, “y”, “o”,“si-entonces”), admite en efecto tal algoritmo: el denominado método de las tablas de verdad. Hilbert pretendía entonces extender el resultado a la parte de la lógica llamada predicativa, que también tra- ta de partículas lingüísticas, denominadas cuantificadores (“ninguno”, “alguno”, “todos”). El problema fue resuelto en 1936, independientemente, por Alon- zo Church en los Estados Unidos y por Alan Turing en Inglaterra. La solución, como se puede prever por el hecho de que las demostracio- nes siguieron siendo la parte central de la actividad matemática, fue negativa: un algoritmo como el que pretendía Hilbert no existe. Pe- ro la demostración de este hecho presupone un progreso esencial: en efecto, mientras que para demostrar la existencia de un algoritmo só- lo basta con exhibirlo, demostrar que no existe requiere la exclusión de todo posible algoritmo y, por lo tanto, la caracterización completa de la noción misma de algoritmo. El hecho de que tal noción, vaga e intuitiva, admita efectivamente una caracterizaciónprecisa y formal fue un descubrimiento sorpren- La Matemática del siglo XX 167 dente, al que se llegó mediante una serie de tentativas de definición que, a posteriori, resultaron ser todas equivalentes. Pero fue preci- samente el enfoque de Turing el que convenció definitivamente de que se había llegado a la solución del problema: hoy su definición se podría reformular de manera casi banal, diciendo que un algorit- mo es aquello que se puede traducir en un programa por ordenador, en cualquiera de los lenguajes llamados universales (por ejemplo, el categórico Pascal, el funcional Lisp, o el lógico Prolog). Naturalmente, en 1936 no existían los ordenadores. Es más, su desarrollo se basó precisamente en la introducción, por parte de Tu- ring, del concepto de máquina universal, que puede calcular toda función calculable realizando un programa. Y en particular, se ba- só en el paso de las máquinas construidas para ejecutar tareas fijas, como las calculadoras, a las máquinas capaces de ejecutar cualquier tarea ejecutable, como los ordenadores. Turing derivó la solución negativa del Entscheidungsproblem tra- duciendo, en el lenguaje de la lógica, el así llamado problema de la parada: decidir si un programa dado se detiene en un argumento da- do. Se puede demostrar fácilmente que este problema es indecidible, en el sentido de que no existe ningún programa que lo pueda decidir, utilizando el clásico método diagonal, introducido por Cantor en la teoría de conjuntos, y luego aprovechado por Russell en su paradoja, y por Gödel para su teorema de incompletitud -método que, por lo tanto, Turing conocía muy bien (y también Church, quien resolvió el pro- blema de manera análoga, pero usando su definición equivalente de algoritmo en términos de Lambda cálculo)-. La solución del Entscheidungsproblem mostró el camino para de- mostrar resultados de indecidibilidad en los campos más variados, mediante traducciones apropiadas del problema de la parada, o de otros similares. Desde el punto de vista matemático, la aplicación 168 7. La Matemática y el Ordenador más interesante del método fue la solución negativa del décimo pro- blema de Hilbert: encontrar un algoritmo para decidir si un polinomio (en una o más variables) con coeficientes enteros (positivos o nega- tivos) admite ceros enteros; o, en otros términos, si la denominada ecuación diofántica que se obtiene igualando el polinomio a 0, admi- te raíces enteras. En elmomento en que se llevaba a cabo el Congreso de 1900, ya se conocían soluciones positivas a casos particulares del décimo proble- ma de Hilbert. Por ejemplo, el algoritmo de Euclides para el máximo común divisor permite tratar el caso de las ecuaciones diofánticas de primer grado, porque a1x1 + . . .+ anxn = b tiene soluciones enteras si y sólo si el máximo común divisor de a1, . . . , an divide a b. La ley de reciprocidad cuadrática de Gauss permite tratar el caso de las ecuaciones diofánticas de segundo grado. Un resultado obtenido en 1968 por Alan Baker, que establece efec- tivos límites superiores a las soluciones de polinomios de al menos tercer grado y que le valió la medalla Fields en 1970, permite tratar el caso de las ecuaciones elípticas, lo que revela una profunda conexión del décimo problema de Hilbert con la conjetura de Mordell y el teo- rema de Fermat. El resultado de Baker se extendió luego para tratar el caso de cualquier ecuación diofántica con dos variables. Sin embargo, la dificultad para solucionar estos casos particula- res permite anunciar que la respuesta al problema general debe ser negativa y que, por lo tanto, no existe ningún algoritmo general de decisión. Quienes demostraron este hecho fueron Martin Davis, Hi- lary Putnam, Julia Robinson y Yuri Matiyasevich: en 1960, los tres primeros mostraron cómo traducir el problema de la parada al len- La Matemática del siglo XX 169 guaje de las ecuaciones diofánticas utilizando la función exponencial (una ecuación describe el comportamiento de cada programa, dema- nera tal que el programa se detiene si y sólo si la ecuación tiene so- luciones); y en 1970, Yuri Matiyasevich eliminó el uso de la función exponencial. Depurando el resultado deMatiyasevich se puede demostrar que el caso de cualquier ecuación diofántica con nueve variables ya es in- decidible, pero no se sabe si éste es elmejor resultado posible. Esmás, Baker conjetura que un caso con tres variables ya resulta indecidible. 7.2. Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950) Ninguna aplicación del ordenador resulta más original y contro- vertida que la que se realiza en la Inteligencia Artificial, para simular procesos y resultados característicos de la inteligencia. La originali- dad deriva, obviamente, de la provocación intelectual de considerar el pensamiento, que es la característica humana más específica, co- mo algo de lo que pueden estar dotadas también las máquinas. La controversia deriva del hecho de que la Inteligencia Artificial, sobre todo en los primeros períodos de las décadas de 1950 y 1960, se des- equilibró en previsiones que resultaron, en la práctica, exageradas e irreales, si no hasta simplemente ridículas. Que las máquinas puedan pensar ya había sido sugerido por el mismo Turing, en su famoso artículo de 1950 “Calculadoras e inteli- gencia”. Allí propuso, en particular una prueba práctica que se cono- ce como test de Turing: se puede decir que una máquina piensa cuan- do un interlocutor que conversa con ella a distancia y por escrito no se da cuenta de que las respuestas no son dadas por un ser humano. Pero el nombre de Inteligencia Artificial fue adoptado oficialmen- te por la comunidad informática en 1956, en el histórico congreso del 170 7. La Matemática y el Ordenador Dartmouth College de Hanover, en NewHampshire. En este congre- so participaron quienes se convertirían en los exponentes más repre- sentativos de la disciplina, y que luego recibirían el reconocimien- to informático más prestigioso, el Turing Award: Marvin Minsky en 1969, John McCarthy en 1971, y Allen Newell y Herbert Simon en 1975. Originalmente, los sueños de la Inteligencia Artificial, declarados expresamente por Simon en la década de 1950, eran llegar, en diez años, a programas que ganaran el campeonato mundial de ajedrez, demostraran importantes y nuevos teoremas de matemática e inspi- raran la mayor parte de las teorías psicológicas. Después de cuarenta años, la mayor parte de los sueños fueron abandonados y el rol del ordenador ha sido drásticamente descali- ficado: como instrumento matemático hoy es usado casi exclusiva- mente para realizar cálculos masivos, más que para enunciar y de- mostrar autónomamente nuevos teoremas, y comomodelo de teorías mentales ya fue superado por las redes neuronales. Esto no signifi- ca, obviamente, que con su ayuda no se haya conseguido resultados trascendentes y aplicaciones útiles: los ejemplos más significativos, además de los citados a continuación, son los sistemas expertos, que codifican densos conocimientos de especialistas en bancos de datos, y realizan deducciones a partir de esos conocimientos utilizando len- guajes de programación que simulan densos aspectos mecánicos del razonamiento. En un único campo las previsiones de Simon se cumplieron de manera más completa, aunque en tiempos más largos de lo previsto: el juego de ajedrez. Ya en 1864 Charles Babbage, el visionario inven- tor del primer ordenador, había anticipado la posibilidad de hacer que una máquina jugara al ajedrez, formulando un primer grupo de posibles instrucciones rudimentarias. Ya en 1890 Leonardo Torres y La Matemática del siglo XX 171 Quevedo había formalizado completamente la estrategia para el ja- que mate, cuando en el tablero hubiera sólo dos reyes y una torre. Pero en realidad, el primer análisis informático del juego se debe a un histórico artículo de Claude Shannon, de 1950. En particular, él diferenció netamente: programas locales que, a fuerza bruta, analizan el árbol de las posibilidades hasta una profundidadpreestablecida, eligiendo el mejor movimiento en base a una evaluación minimax y considerando sólo los movimientos más prometedores (cada nivel de profundidad permite mejorar el puntaje del programa en 200 puntos ELO aproximadamente); programas globales, que combinan el aná- lisis en profundidad de los movimientos con una evaluación exten- siva de la disposición, la movilidad, el equilibrio, la influencia y el control de las piezas; y programas estratégicos que juegan mediante reglas abstractas parecidas a las humanas. El primer partido entre un hombre y un programa se jugó en 1951, entre el informático Alick Glennie y el Turochamp, escrito por Alan Turing. Dado que las máquinas de la época todavía no eran de- masiado potentes, Turing tuvo que simular el programa a mano. Y dado que el programa era bastante poco sofisticado, Glennie ganó fácilmente el partido en 29 movimientos. Las optimistas previsiones de Simon fueron compartidas por Mi- jail Botvinnik, él mismo campeón mundial (con dos breves interrup- ciones) desde 1948 hasta 1963, quien en 1958 declaró que estaba se- guro de que algún día el ordenador jugaría mejor que el hombre, y luego se dedicó por mucho tiempo al desarrollo de programas glo- bales y estratégicos. El test de Turing, restringido al ajedrez, fue superado satisfacto- riamente por primera vez en 1980 por Belle, campeón mundial de los programas (el primer campeonato mundial se había llevado a ca- bo en 1974). En una simultánea de 26 partidos jugados por el gran 172 7. La Matemática y el Ordenador maestro Helmut Pfleger, el programa jugó secretamente tres parti- dos. Cinco de los partidos, uno de los cuales fue jugado (y vencido) por Belle, fueron seleccionados y distribuidos a varios expertos, in- cluso al gran maestro Korchnoi, que había sido candidato al titulo mundial en 1978: la mayor parte de los expertos, incluidos Korchnoi y Pfleger, pero no Kasparov, se equivocaron al identificar el partido jugado por el ordenador. La mejora de los programas para ajedrez ha sido, en erecto, enor- me. En 1978, se produjo la primera derrota de un maestro interna- cional: David Levy, derrotado por Chess 4.7. En 1988, el gran maes- tro Bent Larsen es derrotado por Deep Thought. En 1996, el campeón mundial Gary Kasparov es derrotado por Deep Blue. Mientras que en 1983 un programa (Belle) se convirtió por primera vez en maes- tro, y en 1990 otro programa (Deep Thought) llegó a ser gran maestro. El último paso de esta evolución se alcanzó el 11 de mayo de 1997, cuando Deep Blue venció al campeón mundial Kasparov no sólo en un partido, sino en un auténtico torneo, con puntaje de 3,5 a 2,5. Hasta Belle los programas eran locales, Deep Thought y Deep Blue son globales, pero la construcción de programas estratégicos no pare- ce factible hasta el momento. Esto muestra los límites filosóficos del proyecto de la Inteligencia Artificial, incluso en su realización de ma- yor éxito: es decir, el hecho de poder simular en ocasiones el pen- samiento humano, reproduciendo sus resultados, pero nunca poder emularlo, reproduciendo sus procesos. 7.3. Teoría del Caos: El Atractor extraño de Lorenz (1963) El problema fundamental de la dinámica es pasar de la descrip- ción implícita de las leyes que regulan el movimiento de un punto matemático o de un cuerpo físico, a una descripción explícita de la trayectoria que sigue el punto o el cuerpo mismo: en dos palabras, La Matemática del siglo XX 173 resolver las ecuaciones del movimiento. La dinámica clásica se concentró en los movimientos que se pue- den describir con ecuaciones diferenciales lineales, para las cuales se desarrollaron varios métodos de solución analítica. Pero la dificultad para solucionar ecuaciones diferenciales no lineales inhibió por mu- cho tiempo un estudio profundo de los casos que se pueden describir con este tipo de ecuaciones, también por el fenómeno de la inestabi- lidad al que están vinculadas: aunque en teoría sean perfectamente deterministas, los sistemas no lineales a menudo se comportan de manera prácticamente caótica, ya que pequeñas variaciones de las condiciones iniciales pueden determinar grandes variaciones en las soluciones. El advenimiento del ordenador permitió afrontar el estudio de los sistemas no lineales mediante la fuerza bruta del cálculo: en vez de resolver las ecuaciones de manera analítica, se simula el proceso que ellas describen de manera analógica, y de este modo en lugar de obtener una ecuación de la trayectoria se obtiene su imagen. Y la solución gráfica a menudo resulta, no sólo prácticamente suficiente para las aplicaciones, sino también visualmente inmediata para la imaginación. Una clasificación de los sistemas dinámicos en base al comporta- miento que describen utiliza la noción de atractor, que es un confi- guración de equilibrio hacia la cual tiende el cuerpo en movimiento. En el caso más simple el atractor es un punto, por ejemplo, una masa gravitacional que atrae un cuerpo (de aquí deriva, precisamente, el nombre de atractor). Un caso un poco más complejo es el de una cur- va cerrada, por ejemplo la de la tierra que se mueve alrededor del sol (la curva obtenida es una elipse). Más complejo aun es el caso de una superficie que el cuerpo en movimiento barre en un desplazamiento casi periódico que se obtiene sobreponiendo movimientos periódi- 174 7. La Matemática y el Ordenador cos, por ejemplo, el de la luna que se mueve alrededor de la tierra que se mueve alrededor del sol (la superficie obtenida es la composi- ción de dos movimientos elipsoidales perpendiculares, es decir, una especie de toro). También existen atractores extraños, que no son clásicos como los anteriores: la rareza consiste en el hecho de que, en vez de ser pun- tos, curvas o las superficies habituales, son fractales (en un sentido preciso, que será definido a continuación). El primer ejemplo de atractor extraño fue descubierto en 1963 por Edward Lorenz, como solución de las ecuaciones que propuso para describir el comportamiento del tiempo atmosférico, y se convirtió en el emblema de la teoría del caos (Figura 30). Lo interesante es que, precisamente porque tal solución se obtiene por simulación en or- denador, la forma general del atractor de Lorenz es más o menos siempre la misma, pero sus detalles varían según el (programa para) ordenador usado. Recién en 1995, Konstantin Mischaikov y Marian Mrozek demos- traron (para colmo de ironía, con una demostración que necesitó un extenso uso del ordenador) que el sistema de Lorenz es en efecto caó- tico, en el sentido de que su comportamiento conduce a un atractor extraño. Pero, por ahora, todavía no se ha demostrado que este atrac- tor tenga la forma quemuestran sus aproximaciones en el ordenador: y no resulta inmediato precisamente porque estamos en presencia de un sistema caótico, en el cual pequeñas variaciones pueden provocar grandes cambios. Además del evidente interés aplicativo, que va desde la aerodi- námica a la meteorología, la simulación de sistemas no lineales en el ordenador también suscita interesantes cuestionamientos teóricos, referidos a la interpretación de los resultados: el caos que aparece en la pantalla del terminal no es una prueba automática de la naturaleza La Matemática del siglo XX 175 caótica del sistema descripto por el sistema; y el verdadero atractor de un sistema caótico no tiene necesariamente la forma de las aproxi- maciones que muestra la máquina. Figura 30. Atractor de Lorenz 7.4. Demostraciones asistidas: El Teorema de los Cuatro Colores de Appel y Haken (1976) En 1852, Francis Guthrie notó, coloreando un mapa de Inglaterra, que no parecían ser necesarios más de cuatro colores para colorear cualquier mapa asignando colores diferentes a regiones colindantes, a condición de que los límites no fueran ni demasiado simples, ni demasiado complejos. No demasiado simples significa, por ejemplo, que no se permiten límites reducidos a puntos aislados: si no, basta considerar regiones dispuestas como las porciones de una torta pa-ra deducir que ningún número finito de colores sería suficiente. No demasiado complejos significa, por ejemplo, que se excluyen límites demasiado irregulares: si no, basta considerar regiones que tengan el mismo límite en común (los denominados lagos de Wada, Figura 31) 176 7. La Matemática y el Ordenador para deducir que ningún número finito de colores sería suficiente.2 Para demostrar, bajo las condiciones mencionadas, que en efecto se necesitan cuatro colores, basta exhibir cuatro países de los cuales cada uno colinda con los otros tres, como en la Figura 32. Augus- tus de Morgan demostró inmediatamente que no es posible que de cinco países cada uno colinde con los otros cuatro, pero esto sólo sig- nifica que no se puede demostrar del mismo modo que se necesitan cinco colores. De ninguna manera se puede deducir de esto que cua- tro colores sean suficientes, como en cambio supusieron una gran cantidad de aficionados que durante un siglo propusieron demostra- ciones erradas de la conjetura de los cuatro colores. En 1879, Alfred Kempe publicó una demostración del teorema, pero en 1890 Percy Heawood descubrió un error en esa demostra- ción, aunque pudo probar que cinco colores son suficientes. La de- mostración consistía en mostrar que las regiones que a lo sumo son frontera de otras cinco regiones (Figura 33) son inevitables, en el sen- tido de que todo mapa normal (es decir, en el que en ningún punto se encuentran más de tres regiones) debe contener por lo menos una; y que los mapas que contienen configuraciones inevitables se pue- den reducir a otros que tengan por lo menos una región menos, y se 2Encontrar dos regiones con el mismo límite es banal: basta con dividir el plano en dos partes mediante una recta o un circulo. Encontrar tres (o más) regiones con el mismo límite es complicado, y requiere un proceso al límite. Para poder visuali- zarlo, supongamos que tenemos dos lagos, uno verde y uno azul, en una isla negra rodeada por un mar rojo. Primero se construye un canal que lleve el agua roja a la isla de modo tal que la tierra negra nunca esté a más de un metro del agua. Luego, se construye un canal que lleve agua verde a la isla de modo tal que la tierra negra nunca esté a más de medio metro del agua. Finalmente, se construye un canal que lleve agua azul a la ida demodo tal que la tierra negra nunca esté a más de un cuarto de metro del agua. Luego se vuelve a empezar, alargando primero de primer canal de modo tal que la tierra negra nunca esté a más de un octavo de metro del agua roja, y así sucesivamente. Al límite, las tres regiones (verde, azul y roja) quedan di- vididas por un único límite negro, que se redujo a las dimensiones infinitesimales de una línea curva. La Matemática del siglo XX 177 pueden colorear con el mismo número de colores. Por ejemplo, si una región es a lo sumo cuadrangular, en el senti- do de que a lo sumo colinda con otras cuatro regiones, el nuevomapa se obtiene contrayendo las regiones hacia un punto (Figura 34). Si el nuevo mapa se puede colorear con cinco colores a lo sumo, se puede hacer lo mismo con el mapa original: basta usar, para la región eli- minada, un color distinto de los usados (a lo sumo cuatro) para las regiones vecinas. Figura 31. Lagos de Wada 4 1 2 3 Figura 32. Un poco más complejo es el caso de las regiones pentagonales, que colindan con otras cinco regiones. En este caso el nuevo mapa 178 7. La Matemática y el Ordenador se obtiene considerando como una única región la región pentago- nal unida a dos colindantes con ella, pero no entre ellas (Figura 35). Si el nuevo mapa se puede colorear a lo sumo con cinco colores, se puede hacer lo mismo con el mapa original: basta usar, para la región pentagonal, un color distinto de los cuatro colores usados para las re- giones que quedaron en el nuevo mapa (las dos regiones que fueron consideradas como la misma tendrán el mismo color, pero estarán separadas por la región pentagonal, que tiene otro color). 1 2 3 4 5 Figura 33. Región pentagonal 1 2 34 Región cuadrangular 1 2 34 Contracción Figura 34. Tratamiento de una figura cuadrangular 1 2 3 4 5 Región pentagonal 1 35 Contracción Figura 35. Tratamiento de una región pentagonal La Matemática del siglo XX 179 En el caso de cuatro colores, se pueden tratar de manera análo- ga las regiones que a lo sumo son triangulares, y un truco permite tratar también las regiones cuadrangulares, pero no hay forma de tratar las regiones pentagonales. Y los intentos de arreglar la demos- tración de Kempe produjeron, por un lado, conjuntos cada vez más grandes de configuraciones inevitables y, por otro, conjuntos cada vez más grandes de configuraciones reducibles, que permitieron de- mostrar el teorema de los cuatro colores para mapas que tienen hasta un centenar de regiones. Pero sólo en 1976, Kenneth Appel y Wolf- gang Haken encontraron un conjunto de configuraciones que fueran al mismo tiempo inevitables y reducibles, probando así por fin el teo- rema en su generalidad. El aspecto interesante de la demostración de Appel y Haken no fue tanto la solución del problema, cuyo interés matemático era bas- tante limitado, sino el método que utilizaron: las 1.482 configuracio- nes inevitables y reducibles fueron encontradas mediante pruebas y errores, a partir de un conjunto de origen de no más de 500, en un proceso de búsqueda interactiva guiada por el ordenador, que nece- sitó 1.200 horas (equivalentes a 50 días ininterrumpidos) de tiempo máquina. Por primera vez la demostración de un teorema matemático se basaba en cuentas que no podían ser verificadas a mano, y cuando el trabajo que contenía la demostración se presentó al Illinois Journal of Mathematics, el control del resultado se realizó con el uso de otro programa, implementado en otro ordenador. Esto suscita algunos in- terrogantes de naturaleza filosófica, ya que las demostraciones asisti- das por el ordenador no son iguales a las habituales: en estas últimas se pasa directamente de la intuición a la formalización, mientras que en las primeras el paso está mediado por un programa. El problema es que no sólo no se puede saber si el programa formaliza correc- 180 7. La Matemática y el Ordenador tamente la intuición, sino que demostrar la corrección del teorema de Gödel es problemático, exactamente como ocurre con los sistemas formales. Puede ser que un día esta peculiar demostración de este peculiar teorema se simplifique radicalmente. Pero también es posible que el teorema de los cuatro colores sea un síntoma de un mal común a todos los sistemas formales indecidibles: es decir, que deban existir teoremas cortos de demostración arbitrariamente larga. Por ejemplo, teoremas de largo n cuya demostración más corta tiene por lo menos un largo 2n: de lo contrario el sistema sería decidible, porque para saber si un enunciado de largo n es un teorema o no, bastaría generar sistemáticamente todas las demostraciones de largo a lo sumo 2n, y controlar si alguna de ellas demuestra el enunciado. Por lo tanto, no tiene nada de raro que, por un lado, enunciados simples necesiten demostraciones complejas, y por el otro, milenios de desarrollo matemático probablemente hayan agotado la totalidad de las demostraciones cortas (e interesantes). Lo que estamos presen- ciando es quizás la llegada de una nueva era, en la cual las demos- traciones serán cada vez más largas y complejas; y para remediar el problema no queda más que dividir el trabajo entre muchos mate- máticos, como en el caso de la clasificación de los grupos finitos, o delegar una parte del trabajo al ordenador, como en el caso del teo- rema de los cuatro colores. Las más famosas demostraciones asistidas por el ordenador son las del teorema de los cuatro colores y las de la conjetura de Kepler, de quien ya hemos hablado. Otro ejemplo relevante para la matemá- tica es la refutación de la conjetura de Mertens, a la que se llega de la siguiente manera: En 1832, Moebius había considerado los números en cuya descomposición losfactores primos aparecen todos con un exponente igual a 1, o sea una sola vez, había asignado a estos nú- La Matemática del siglo XX 181 meros el valor 1 o −1, dependiendo de si el factor era par o impar, y había definido la función M(n) como la suma de estos valores, pa- ra todos los números menores o iguales a n. En 1897, Franz Mertens calculó los primeros 10.000 valores de la función M y conjeturó que, para cada n, − √ n < M(n) < √ n. Esto podría parecer de escaso interés, pero, en realidad, la conjetura de Mertens habría derivado la hipótesis de Riemann, es decir, como veremos más adelante, el problema abierto más importante de la ma- temática moderna. El cálculo de valores cada vez más grandes de la función M pare- ció confirmar la conjetura, pero en 1983 Hermann de Riele y Andrew Odlyzko la refutaron, precisamente con una demostración asistida que utilizó masivamente un superordenador CRAY. 7.5. Fractales: El Conjunto de Mandelbrot (1980) En 1906, Helge von Koch descubrió que es posible que una re- gión del plano tenga un área finita pero un perímetro infinito. Basta considerar un triángulo equilátero, dividir cada lado en tres partes iguales, considerar el tercio central de cada uno como la base de un nuevo triángulo equilátero, y repetir el proceso al infinito (Figura 36). El resultado final es una figura con forma de copo de nieve, que pre- cisamente tiene un área finita, pero un perímetro infinito (en cada paso el largo del borde se multiplica por 43 ). A causa de la simétrica repetitividad del procedimiento que lo define, el borde de la figura de Koch tiene la propiedad de ser auto- similar: si se transforman dos segmentos cualesquiera de las varias aproximaciones, por ejemplo un lado del triángulo original y un lado de los triángulos obtenidos en el primer paso, se obtiene siempre la 182 7. La Matemática y el Ordenador misma curva al límite, sólo que en una escala diferente. Figura 36. Curva de Koch Dado que este tipo de curvas no se pueden medir de la mane- ra habitual, ya que tienen una longitud infinita, en 1918 Félix Haus- dorff propusomedir al menos el grado de autosemejanza de la curva, extendiendo la noción de dimensión de la siguiente manera. Un seg- mento es una figura autosimilar unidimensional, que puede obtener- se uniendo dos partes de tamaño 12 . Análogamente, un cuadrado es una figura autosimilar bidimensional, que se puede obtener uniendo cuatro partes de tamaño 12 . Y un cubo es una figura autosimilar tridi- mensional, que se puede obtener uniendo ocho partes de tamaño 12 (Figura 37). En general, se puede concluir que una figura autosimilar de dimensión d es aquella que puede obtenerse uniendo nd partes de tamaño 1n . Dado que la curva de Koch se obtiene uniendo 4 partes de tamaño 13 (se divide un segmento en 3 partes, y se sustituye la parte central por partes iguales), esto significa que su dimensión d es tal La Matemática del siglo XX 183 que 4 = 3d, es decir d = log 4 log 3 ≈ 1, 26 Figura 37. Figuras autosimilares Figuras que tienen dimensión fraccionaria, en el sentido que se acaba de explicar, se llaman fractales, y existen en gran cantidad. Por ejemplo, para cada número real r comprendido entre 1 y 2 existe una curva fractal de dimensión r. Análogamente, también existen super- ficies fractales, de dimensión comprendida entre 2 y 3. Un ejemplo, conocido como esponja de Menger, puede obtenerse considerando un cubo, dividiéndolo en 27 cubos, sustrayendo los 7 cubos centrales (6 en las caras y 1 en el interior), y repitiendo el proceso al infinito (Fi- gura 38): la dimensión de esta superficie es (aproximadamente) 2,72, mientras que el volumen que encierra es 0. Figura 38. Esponja de Menger Los ejemplos de fractales que se acaban de mostrar son altamente regulares y usan siempre el mismo procedimiento en todos los pasos: 184 7. La Matemática y el Ordenador por esta razón, agrandar un detalle produce una imagen del mismo tipo que la figura grande. Sin embargo, también se pueden conside- rar fractales si su construcción utiliza procedimientos distintos en ca- da paso: en este caso, agrandar detalles produce imágenes distintas de la figura grande. La investigación acerca de este segundo tipo de fractales, iniciada por Gastón Julia y Pierre Fatou en la década de 1920, se empantanó por las dificultades de cálculo, que dificultan el dibujo a mano de las imágenes. Pero la llegada del ordenador permitió retomar el tema y las imágenes computerizadas de fractales complejos se convirtieron en una verdadera forma de arte moderno. El tipo más simple de fractal que se pueda considerar, además del que se basa en modificaciones lineales de la figura original, im- plica problemas cuadráticos. En 1980, Benoît Mandelbrot descubrió una especie de fractal universal, definido de manera más bien indi- recta: es decir, considerando la transformación x2 + c de puntos del plano (los valores de la x son por lo tanto números complejos, y no sólo reales), y aplicándola reiteradamente, partiendo de puntos cua- lesquiera. Si c es nulo, se presentan tres casos: los puntos que distan 1 del origen, es decir, que están en el círculo de radio 1, no sonmovidos por la transformación (porque x2 es igual a x, si x es igual a 1); los puntos que distan menos de 1 del origen, que por lo tanto están dentro del círculo de radio 1, se mueven hacia el origen (porque x2 es menor que x, si x es menor que 1); los puntos que distan más de 1 del origen, que por lo tanto están fuera del círculo de radio 1, se mueven hacia el infinito (porque x2 es mayor que x si x es mayor que 1). Por lo tanto, hay zonas de atracción, hacia el cero y hacia el infinito, divididas por un límite circular. Si c es arbitrario, pueden suceder varias cosas: el número de zo- La Matemática del siglo XX 185 nas de atracción puede variar; además de las zonas de atracción tam- bién puede haber zonas de órbitas periódicas; y el límite entre las distintas zonas es una curva fractal que puede estar constituida por una sola pieza, por varias piezas, o simplemente por una nube de puntos dispersos. El conjunto de Mandelbrot consiste en puntos c que originan una zona de frontera de una sola pieza, y su extraña apariencia se convir- tió en una de las formas geométricas más conocidas (Figura 39). Co- mo demostraronAdrien Douady y JohnHubbard, en 1985, el conjun- to a su vez está compuesto por una sola pieza (en lenguaje técnico, es conexo). Y, como demostró Jean Christophe Yoccoz, todo punto que no está en el perímetro está completamente rodeado por una parte del conjunto que está constituida por una sola pieza (en lenguaje téc- nico, es localmente conexo): uno de los resultados por los cuales Yoccoz obtuvo la medalla Fields en 1994. Figura 39. Conjunto de Mandelbrot La posición de un punto c respecto del conjunto de Mandelbrot determina cuál es el comportamiento de la transformación cuadrá- tica x2 + c. La importancia del estudio de este peculiar aspecto fue destacada con la medalla de Fields en 1998 a Curtis McCullen, quien 186 7. La Matemática y el Ordenador aisló los puntos correspondientes a transformaciones que definen sis- temas dinámicos hiperbólicos (o sea, con órbitas periódicas todas cir- culares), particularmente útiles y muy estudiadas. No obstante su definición, aparentemente muy particular, el con- junto de Mandelbrot presenta un interés general: ya que de hecho es un sistema de referencia para el estudio de los sistemas dinámicos complejos, porque brinda información, no sólo sobre transformacio- nes cuadráticas, sino sobre cualquier transformación que se compor- te como una cuadrática aunque sea sólo en una parte del plano. Con respecto a las aplicaciones, los fractales sirven para modelar objetos que exhiben una estructura amuchos niveles de escala, desde costas marítimas hasta cadenas montañosas, y se utilizan en la gráfi- ca computerizada para reproducirlas con imágenes realistas (Figura 40). Justamente a causa de las variadas aplicaciones de los fractales, Mandelbrot obtuvo el premio Wolfen 1995, no en matemática, sino en física. Figura 40. Paisaje renderizado mediante fractales por el software TERRAGEN http://www.planetside.co.uk/ 8 Problemas irresueltos La matemática, como esperamos haber demostrado, es sustan- cialmente una actividad de propuesta y de solución de problemas, fáciles o difíciles, superficiales o profundos, teóricos o prácticos, pu- ros o aplicados. Y la provisión de problemas es inagotable, porque frecuentemente de las soluciones surgen nuevos problemas. Una vez agotado nuestro tratamiento de los desarrollos correspondientes a los problemas de Hilbert, y más en general, de la matemática del siglo XX, surge el deseo espontáneo de echar un vistazo a los proble- mas futuros, cuando concluye un siglo que también marca el inicio de un milenio. Naturalmente, no es fácil juzgar la dificultad de un problema an- tes de haber visto su solución, como demuestran precisamente los problemas de Hilbert. Por ejemplo, el tercer problema fue resuelto in- mediatamente porMax Dehn y su solución fue publicada incluso an- tes de la aparición de las actas del congreso de París. Análogamente, el séptimo problema fue resuelto en 1929, aunque sólo diez años an- tes Hilbert hubiera declarado que no creía que pudiera resolverse en menos de un siglo. 187 188 8. Problemas irresueltos De todos modos, los matemáticos consideran que los problemas que ellos proponen son, no sólo resolubles, sino también que tarde o temprano serán efectivamente resueltos. Para citar las palabras de Hilbert en su discurso en París: “La convicción de la resolubilidad de cada problema es un incentivo poderoso para el investigador. Dentro de nosotros sentimos la perpetua llamada: hay un problema, busque- mos su solución. Y sólo se la puede encontrar con la razón, porque en matemática no hay ningún ignorabimus”. Hilbert se preguntó si la posibilidad de resolver todos los proble- mas era una característica exclusiva del pensamiento matemático o una ley más general de la naturaleza de la mente. Pero dijo claramen- te que una solución aceptable de un problema matemático puede ser también una demostración de su insolubilidad, como sucedió efec- tivamente con su primer problema, sobre la hipótesis del continuo, y con el décimo problema, sobre la existencia de soluciones de ecuaciones diofánticas. Naturalmente, la historia de la matemática está llena de solucio- nes negativas. La irracionalidad de √ 2, descubierta por los pitagóri- cos, no era otra cosa que una demostración de la insolubilidad de la ecuación x2 − 2 = 0 en los números racionales. Y en el siglo XIX, se demostró la insolubilidad de problemas geométricos (como la cua- dratura del círculo y la trisección del ángulo mediante regla y com- pás) y algebraicos (como la solución mediante radicales de las ecua- ciones de grado mayor que el cuarto). Pero fue en el siglo XX cuando el fenómeno alcanzó masa crítica, también gracias a su clarificación a través del teorema de Gödel. Advirtiendo entonces que un problema aparentemente interesan- te y resoluble pueda resultar después desilusionante o insoluble, pro- ponemos una breve lista de problemas abiertos de la matemática, desde aquél que puede ser considerado el más antiguo hasta uno de La Matemática del siglo XX 189 los más recientes, pasando a través de los dos que son considerados universalmente los más profundos, o sea la hipótesis de Riemann y la conjetura de Poincaré. 8.1. Aritmética: El Problema de los Números Perfectos (300 a.C.) La teoría de los números está llena de problemas que, como de último teorema de Fermat, son facilísimos de enunciar y dificilísimos de resolver. El problema abierto más antiguo de la matemática es precisamente de este tipo. En el siglo VI a.C., los pitagóricos habían definido un número per- fecto como un número que es igual a la suma de sus divisores, exclui- do obviamente el número mismo, e incluida la unidad. Por ejemplo, son perfectos 6 y 28, cuyos divisores son 1-2-3, y 1-2-4-7-14, respecti- vamente. En la Creación del mundo (III), el filósofo hebreo del primer siglo Philo Judaeus sostuvo que Dios creó el mundo en seis días jus- tamente porque el número 6 es perfecto, y en la Ciudad de Dios (XI, 30) Agustín sostuvo la misma idea. Además del 6 y el 28, los griegos conocían también el 496 Y el 8.128, El quinto número perfecto -33.550.336- apareció por primera vez en un código alemán del siglo XV, y hoy se conocen en total sólo unos cuarenta. Hacia el 300 a.C., Euclides, en la proposición IX.36 de los Elementos, demostró en general que si 2n+1 − 1 es primo, entonces 2n(2n+1 − 1) es perfecto. La verificación es prácticamente inmediata, pero mucho menos inmediato es demostrar que los números perfec- tos pares son exactamente los del tipo encontrado por Euclides. La demostración de que es así fue dada por Euler en 1737, y aprovecha el mismo procedimiento que usó para demostrar que los números primos son infinitos, que habría llevado a los desarrollos ya descrip- tos, referidos a la hipótesis de Riemann. 190 8. Problemas irresueltos Por lo tanto, los números perfectos pares están estrechamente vinculados a los números primos del tipo 2m − 1, llamados primos de Mersenne. Euler descubrió unmétodo eficiente para verificar si 2m− 1 es primo, que se basa en el llamado pequeño teorema de Fermat, es de- cir, el hecho de que si p es un número primo, entonces 2p − 1 es igual a 1 en el grupo cíclico con p elementos (o, como se dice, congruente con 1 módulo p). Pero dado que, como solía hacer, Fermat sólo había enunciado su pequeño teorema, Euler se vio obligado a demostrarlo. Él dio una primera demostración en 1737, pero en 1750 volvió al tema y, para dar su segunda demostración, inauguró la teoría de congruencias, o sea la teoría de los grupos cíclicos con un número primo de elementos, que luego se convirtió en uno de los instrumentos más fecundos de la teoría de los números. El criterio de Euler todavía se usa en la búsqueda de grandes nú- meros primos en el ordenador, y a finales del siglo XX, el primo más grande (deMersenne) que haya conocido haya conocido era el citado 26972593 − 1 del que se puede tomar el más grande numero perfecto conocido. Como el sucesivo teorema de Fermat, también el estudio de los números perfectos condujo al desarrollo de partes esenciales de la moderna teoría de los números. Pero un primer problema sigue abier- to: si existen o no números perfectos impares. Si la respuesta es positiva, en teoría se podría encontrar un ejem- plomediante una búsqueda exhaustiva, por ejemplo en el ordenador. Pero en la práctica, todo depende de cuán grande sea el número per- fecto impar más pequeño. En cambio, si la respuesta es negativa, los resultados conjuntos de Euclides y Euler caracterizan entonces com- pletamente a los números perfectos. La Matemática del siglo XX 191 De todos modos, un segundo problema sigue abierto: si existen infinitos números perfectos pares, o, equivalentemente, si existen in- finitos números primos de Mersenne. 8.2. Análisis complejo: La Hipótesis de Riemann (1859) Los números enteros siempre se pueden descomponer, respecto de la suma, en sumandos iguales a 1. Respecto del producto, en cam- bio, existen números primos que son indescomponibles, o sea, que no admiten factores distintos de sí mismos ni de 1. Los números pri- mos son los átomos del mundo numérico y su estudio reviste un rol análogo al de la física de las partículas para el mundo físico. Los primeros resultados profundos en este estudio fueron obte- nidos por los griegos, quienes probaron que todo número se puede descomponer demanera unívoca como producto de números primos y que los números primos son infinitos, aunque sean cada vez más esporádicos. Una demostración directa de la infinitud de los números primos aparece en los Elementos (IX, 20) de Euclides, pero una demostración sorprendentemente indirecta la dio Euler en 1737. Él notó que, da- do que todo número se puede descomponer en factores primos, al variar n varían en realidad todos los posibles productosde números primos, con todos los posibles exponentes. Si hubiera sólo un núme- ro finito de primos, la suma 1+ 1 2 + 1 3 + . . .+ 1 n + . . . sería finita, porque sería el producto de un número finito de progre- siones geométricas de tipo 1+ 1 p + 1 p2 + . . . = p p− 1 192 8. Problemas irresueltos Pero la suma anterior es infinita, porque las dos fracciones 13 y 1 4 contribuyen al menos 12 , y análogamente las sucesivas 4, 8, 16, etcé- tera. Los números primos son 25 hasta 100, 168 hasta 1.000, 1.229 hasta 10.000,9.592 hasta 100.000. Una distribución que, como notaron Euler y Gauss, decrece de manera aproximadamente logarítmica, en el sen- tido de que los números primos hasta 10n son aproximadamente 10 n 2n : 25 hasta 100, 167 hasta 1.000, 1.250 hasta 10.000, 10.000 hasta 100.000. En términos generales, y usando los logaritmos naturales, se puede conjeturar el teorema de los números primos, según el cual la cantidad de primos hasta n se acerca cada vez más a la relación n log n En 1859 Bernhard Riemann, intentando demostrar el teorema, no- tó que el problema está ligado al comportamiento de la función ζ(z) = 1+ 1 2z + 1 3z + . . .+ 1 nz + . . . La conexión de la función ζ con los números primos es aparente se- gún la anterior demostración de Euler, que muestra sin embargo que para z menor o igual a 1 la función ζ, tiene un valor infinito; por es- ta razón Riemann amplió la función desde los números reales a los complejos, mediante una técnica llamada de prolongación analítica (sustancialmente, se define el valor de ζ como límite no de las sumas parciales, sino de sus medias). La función ζ, admite infinitos ceros complejos no reales, es decir, números de tipo z = x+ iy con y 6= 0 y ζ(z) = 0, y que se encuentran todos en la franja definida por x entre 0 y 1. Riemann conjeturó que estos números se deben encontrar todos sobre la recta definida por La Matemática del siglo XX 193 x = 12 , una conjetura conocida como hipótesis de Riemann, que consti- tuye el problema abierto más importante de la matemática moderna. Todavía hoy sólo se sabe de ella que, en efecto se encuentran infinitos ceros sobre la recta justa, como comprobó Hardy en 1914, y que es así para los primeros ceros, hasta varios miles de millones de ellos. De todosmodos, para llegar al teorema de los números primos no era necesario conocer la función ζ en los detalles descriptos por la hi- pótesis de Riemann; en 1896 el teorema fue demostrado por Jacques Hadamard y Charles Jean de la Vallée Poussin, y la demostración só- lo necesitó probar el hecho de que ningún cero de la función ζ está sobre la recta definida por x = 1. Por lo tanto, la hipótesis de Riemann quedó abierta y formó parte del octavo problema de Hilbert. Este problema proponía también varias otras preguntas sobre los números primos, entre ellas las conjeturas de Goldbach, de 1742, y de los primos gemelos, la primera sostiene que todo número par mayor que 2 es la suma de dos números primos; y la segunda, que existen infinitos números primos cuya diferencia es 2 (como 3 y 5, o 10.006.427 y 10.006.429). También estas dos conjeturas, como la hipótesis de Riemann, permanecen aún sin ser demostradas. Hilbert también propuso estudiar el comportamiento de los nú- meros primos (ideales) en campos arbitrarios. Una versión de la hi- pótesis de Riemann para un análogo de la función ζ, asociada a cur- vas algebraicas en campos finitos fue propuesta en 1924 por Emil Ar- tin, y demostrada en 1940-1941 por André Weil, premio Wolf en 1979 El mismo Weil propuso, en 1949, un análogo de la hipótesis de Rie- mann para variedades algebraicas multidimensionales en campos fi- nitos, que se hizo famosa con el nombre de conjetura de Weil, y fue demostrada en 1973 por Pierre Deligne, quien recibió por este traba- jo la medalla Fields en 1978. La demostración de Deligne fue el primer gran resultado obtenido mediante un arsenal de técnicas extremada- 194 8. Problemas irresueltos mente abstractas de geometría algebraica (como los esquemas y la cohomología l-ádica) introducidas en los años 1960 por Alexandre Grothendieck, medalla Fields en 1966. El aparente alejamiento de las problemáticas y de las técnicas de la teoría clásica de los números no debe hacer pensar que no se haya vuelto a acudir a ellas; del resultado de Deligne se deduce, por ejem- plo, una conjetura de Ramanujan de principios de siglo, y los métodos usados por Deligne son los mismos que permitieron que Faltings y Wiles demostraran la conjetura de Mordell en 1983 y el teorema de Fermat en 1995. De todosmodos, el último cuarto de siglo ha testimo- niado la llegada de una nueva fase geométrico-algebraica de la teoría de los números, después de las fases aritmética y analítica inaugura- das respectivamente por Fermat y Euler, con el método de descenso infinito y la introducción de la función ζ. Pero después de resolver problemas de teoría de los números con técnicas analíticas o geométrico-algebraicas todavía resta compren- der si estas técnicas son necesarias, o si, en cambio, no es posible encontrar demostraciones clásicas que no hagan intervenir concep- tos ajenos a la teoría misma de los números. Tales demostraciones se llaman “elementales” desde el punto de vista de la complejidad ló- gica, que no se debe confundir con la complejidad matemática, dado que el uso de técnicas más acotadas tiende precisamente a producir demostraciones más complicadas. En el caso del teorema de los números primos, en 1949 Paul Er- dös y Atle Selberg dieron una demostración elemental del teorema, que le valió al segundo la medalla Fields en 1950, y a ambos el premio Wolf en 1983/1984 y 1986, respectivamente. Todavía no se han en- contrado demostraciones elementales de las conjeturas de Ramanu- jan, Mordell y Fermat, y se piensa que tales demostraciones podrían tener una dimensión y una complejidad prohibitivas. La Matemática del siglo XX 195 8.3. Topología Algebraica: La Conjetura de Poincaré (1904) La topología algebraica es el estudio de propiedades topológicas a través de métodos algebraicos. El primer ejemplo de este enfoque es la llamada característica de Euler de una superficie, ya conocida por Descartes en 1639 y por Leibniz en 1675, pero redescubierta y publi- cada por Euler en 1750. La observación inicial es que, dado un poliedro convexo, entre el número V de sus vértices, L de sus lados y F de sus caras subsiste la siguiente relación: V − L+ F = 2. Por ejemplo, en el caso de un cubo se tienen 8 vértices, 12 lados y 6 caras, entonces: 8− 12+ 6 = 2. La relación sigue valiendo para los grafos dibujados sobre una esfera, lo que muestra precisamente que se está frente a una propiedad topològica: si se infla un poliedro de goma hasta convertirlo en una esfera, sus lados representan un grafo sobre ella; viceversa, aplastando las caras de un grafo sobre una esfera de goma se obtiene un poliedro. Lo que hace este asunto interesante es que la cantidad V − L+ F depende sólo del tipo de superficie sobre la cual el grafo está dibu- jado, vale 2− 2n si la superficie es una esfera con n aros, y 2˘n si la superficie es una esfera con n cintas de Moebius. Por ejemplo, el va- lor es 2 para la esfera, 1 para el plano proyectivo, 0 para el toro y la botella de Klein. Sabiendo si una superficie bidimensional cerra- da es orientable o no, y cuál es su característica de Euler, es posible clasificarla completamente. Para superficies en 3 (o más) dimensiones, un análogo de la ca- racterística de Euler fue definido por Poincaré en una serie de tra- bajos entre 1895 y 1900, pero no basta para clasificarlas. La idea es, entonces, prever los resultados anteriores de manera más elaborada, asociando a una superficie bidimensional no sólo un número, sino un grupo fundamental: se fija un punto en la superficie y sobre esa 196 8. Problemas irresueltos superficie se consideran los recorridos que parten desde el punto y vuelven al mismo (la aplicación de un recorrido a otro es el recorri- do obtenido recorriendo primero uno y después elotro; el recorrido neutro es el que no se mueve del punto; el inverso de un recorrido dado es el recorrido efectuado en el sentido opuesto). Dado que se están tratando propiedades topológicas, los recorri- dos deben ser considerados como si fueran de goma: dos recorridos que se pueden transformar uno en el otro estirándolos o contrayén- dolos, sin romperlos, son sustancialmente iguales. Esta identificación de recorridos se llama homotopía y por este motivo el grupo funda- mental de una superficie se llama también primer grupo de homoto- pía. El grupo fundamental de la esfera es trivial, cualquier recorrido se puede contraer a un punto. Además, la esfera es la única superficie cerrada orientable cuyo grupo fundamental es trivial, en efecto, si una superficie tiene al menos un aro, un recorrido que pase alrededor del aro no se puede contraer a un punto. El grupo fundamental es, por consiguiente, suficiente para distinguir la esfera de cualquier otra superficie orientable y, más en general, superficies bidimensionales de distinto tipo entre sí. Poincaré amplió la noción de grupo fundamental a superficies en 3 y más dimensiones, con la esperanza de conducir a una clasifica- ción topològica de naturaleza algebraica de esas superficies. Pero las cosas resultaron más complicadas de lo previsto, y hoy se sabe que los grupos fundamentales no son suficientes para caracterizar las su- perficies tridimensionales. Por esta razón, la clasificación de Thurs- ton, de la que hablamos anteriormente, usa esencialmente conceptos no sólo algebraicos sino también geométricos, como los posibles ti- pos de geometría que se pueden asignar a los elementos de una su- perficie. La Matemática del siglo XX 197 En 1904, Poincaré formuló una conjetura que no se refería a su- perficies cualesquiera, sino sólo a la hiperesfera, y preguntaba si ésta es la única superficie tridimensional cerrada y orientable cuyo gru- po fundamental es trivial. Una respuesta positiva se deduciría de la caracterización de las superficies tridimensionales de Thurston, que sin embargo todavía no ha sido demostrada; es más, precisamente la conjetura de Poincaré es uno de los obstáculos más fuertes para completar su demostración. Lo interesante es que, una vez aplicada la conjetura a las esferas de cualquier dimensión, el único caso que queda abierto es justamen- te el original de Poincaré. En efecto, con respecto a las esferas de 5 o más dimensiones, la conjetura de Poincaré fue comprobada en 1960 por Stephen Smale, quien obtuvo por este trabajo la medalla Fields en 1966 (más tarde Smale se convirtió en uno de los más famosos in- telectuales estadounidenses que tomó posición contra la guerra de Vietnam, y la Universidad de California le suspendió el sueldo). En lo que concierne, en cambio, a la esfera de 4 dimensiones, la conje- tura de Poincaré se deduce de la caracterización de Freedman de las superficies tetradimensionales, de manera análoga a la de las super- ficies bidimensionales, descrita anteriormente. Independientemente de las soluciones, las dificultades para de- mostrar la conjetura de Poincaré revelaron que la información co- dificada por el grupo fundamental es demasiado limitada. Por esta razón, en 1935 Witold Hurewicz introdujo una serie infinita de grupos de homotopía para la esfera de n dimensiones. El grupo fundamental es el primero de la serie, y los primeros n son los denominados grupos de homología, que se obtienen considerando recorridos en varias di- mensiones, en vez de unidimensionales únicamente; por ejemplo, no sólo elásticos extendidos sobre la esfera, sino globitos (des)inflables, y así sucesivamente. 198 8. Problemas irresueltos El resultado fundamental sobre los sucesivos grupos de homoto- pía de la esfera en n dimensiones es el teorema de finitud, demostrado en 1951 por Jean-Pierre Serre; todos estos grupos son finitos, con la única excepción del grupo (2n− 1)-ésimo cuando n es par, por ejem- plo del tercer grupo de la esfera bidimensional. Este resultado le va- lió a Serre la medalla Fields en 1954 y contribuyó a que le asignaran también el premio Wolf en 2000. De todas maneras, la determinación precisa de estos sucesivos grupos de homotopía resultó ser muy complicada. En 1950, Lev Pon- tryagin calculó los primeros dos y Rokhlin el tercero, y en 1951 Serré el cuarto. Para poder realizar su cálculo Pontryagin tuvo que deter- minar cuándo una superficie compacta de n dimensiones es el borde de una superficie de n+ 1 dimensiones; encontró una condición ne- cesaria que, en 1954, René Thom demostró que también es suficiente. De este último trabajo nace la importante teoría del cobordismo, por la que Thom obtuvo la medalla Fields en 1958. Entre las aplicaciones más espectaculares del cobordismo se encuentran dos resultados que llevaron a la asignación de las medallas Fields en 1962 y 1966: el teo- rema de Milnor sobre las esferas exóticas (que en este contexto se puede reformular diciendo que en dimensión 7 existen esferas que no son el borde de una pelota) y el teorema del índice de Atiyah- Singer. La extensión, por parte de Milnor y Smale del cobordismo al h-cobordismo (h es la inicial de homotopy) permitió luego que No- vikov obtuviera la medalla Fields en 1970, por la clasificación de las variedades diferenciales de dimensión mayor o igual a 5. 8.4. Teoría de la Complejidad: El Problema P = NP (1972) La definición de algoritmo de Turing divide las funciones numé- ricas en dos clases, calculables y no calculables. Pero esta subdivisión no constituye más que una primera aproximación, porque muchas La Matemática del siglo XX 199 funciones que son calculables en teoría no lo son en absoluto en la práctica. Por ejemplo, un algoritmo cuya ejecución requiera un tiem- po más largo que la duración del universo, o incluso sólo de una vida humana, no puede ser considerado concretamente ejecutable, aunque pueda serlo en abstracto. Desde un punto de vista aplicativo se necesita, por consiguiente, limitarse a algoritmos que tengan tiempos de ejecución suficiente- mente veloces. En 1965, Edmonds y Cobham propusieron, como se- gunda aproximación, la distinción entre algoritmos que se ejecutan en tiempo polinomial y los que no lo hacen. El tiempo de ejecución se mide en este caso mediante el número de pasos ejecutados por el or- denador, y la variable del polinomio corresponde a la dimensión de los datos sobre los que el algoritmo opera, por ejemplo, a su largo; de este modo, un algoritmo cuadrático requiere más que 100 pasos sobre números de 10 cifras, más de 10.000 pasos sobre números de 100 cifras, y así sucesivamente. Naturalmente, el tiempo de ejecución de un algoritmo depende fuertemente del tipo y de la potencia del ordenador que se usa para ejecutarlo. Pero sorprendentemente, si un algoritmo opera en tiem- po polinomial sobre un ordenador particular, éste sigue operando en tiempo polinomial sobre cualquier otro; dicho de otra manera, la diferencia entre los varios modelos de ordenadores y sus variadas implementaciones siempre se puede contener en un factor polino- mial, que puede combinarse con un tiempo de ejecución polinomial sin mutar su naturaleza. Por lo tanto, ser ejecutable en tiempo po- linomial constituye una característica intrínseca, y no accidental, de un algoritmo. Entre los algoritmos de los que hemos hablado anteriormente el método del simplex es, por ejemplo, no polinomial, pues para una infinidad de datos el algoritmo requiere un tiempo exponencial pa- 200 8. Problemas irresueltos ra dar la respuesta. Esto no significa en absoluto que el problema mismo de la programación lineal no se pueda resolver en tiempo po- linomial, sino sólo que la particular solución ofrecida por el método del simplex no lo es. Y, en efecto, en 1979 Khachian encontró un al- goritmo alternativo, llamado método de los elipsoides, que resuelve el problema de la programación lineal en tiempo polinomial. La clase de problemas para los que existe una solución polinomial se indica con el símbolo P. En 1972, StephenCook, Richard Karp y Leonid Levin descubrieron una clase potencialmentemás amplia que P indicada con el símbolo NP cuyos problemas, aunque no necesa- riamente resolubles en tiempo polinomial, “casi” lo son en el sentido de que, de cada propuesta de solución, se puede verificar en tiem- po polinomial si funciona o no. Por lo tanto, la diferencia entre P y NP es la siguiente: para estar en la primera clase es necesario que un problema admita un método para encontrar la solución en tiempo polinomial, mientras para estar en la segunda clase es suficiente que un problema admita un método para verificar la solución en tiempo polinomial. Es fácil convencerse de que es más difícil encontrar una solución que verificarla. Por ejemplo, verificar que cierto número de teléfono corresponde a cierta persona es fácil, porque basta consultar la guía telefónica en orden alfabético; pero encontrar a la persona que tiene cierto número de teléfono es difícil, porque requiere una búsqueda exhaustiva en toda la guía telefónica. Más matemáticamente, verifi- car que 4.294.967.297 = 641× 6.700.417 es un juego de niños, pero encontrar la descomposición requiere el ingenio de Euler o la potencia del ordenador. Y el problema de la descomposición en factores es precisamente uno de los que están en NP, precisamente porque es fácil verificar si dos números son o no la La Matemática del siglo XX 201 descomposición de un tercer número. Pero no se sabe si el problema también está en P, es decir, si existe un método veloz para verificar si un número se puede descomponer, o si en cambio, es primo (la respuesta es positiva si la hipótesis de Riemann es verdadera). Justamente sobre este último hecho se basa la criptografía de clave privada, que se sustenta en la siguiente idea: el emisor y el destina- tario poseen un número entero muy grande, que cumple la función de clave personal de codificación y decodificación y se mantiene en secreto. E1 emisor que manda un mensaje m al destinatario lo codifi- ca mediante la propia clave c, transformándolo enmc. El destinatario que recibe el mensajemc lo codifica a su vez mediante la propia clave d, transformándolo en mcd, y lo reenvía al emisor. Éste decodifica el mensaje mediante la propia clave C transformándolo en md, y lo re- envía al destinatario, que finalmente decodifica el mensaje mediante la propia clave d, recuperando m. La eficiencia del método se basa en el hecho de que la doble decodificación del mensaje requiere des- composiciones en factores de números muy grandes, que se pueden hacer velozmente sólo conociendo las claves. La desventaja es, en cambio, que el método requiere una doble codificación y decodifica- ción, tanto por parte del emisor como del destinatario. Para evitar el obstáculo se usa la criptografía de clave pública, que se basa en una idea similar pero más complicada. Cada destinatario posee dos números enterosmuy grandes que funcionan como claves, una c de codificación, que se hace pública, y una d de decodificación, que se mantiene en secreto. El emisor que manda un mensaje m al destinatario lo codifica mediante la clave pública c, transformándolo en mc, y el destinatario decodifica este mensaje mediante la clave se- creta d, transformándolo en(mc)d = mcd. Para que la decodificación tenga éxito el mensaje decodificado deberá ser igual al original, es de- cir cd deberá ser igual a 1; aunque esto resulte imposible literalmente, 202 8. Problemas irresueltos el pequeño teorema de Fermat asegura que, dados dos números p y q si cd es igual a 1 módulo (p− 1)(q− 1) entonces mcd es igual a m módulo pq. La eficiencia del método se basa en el hecho de que para la codificación y la decodificación del mensaje basta conocer el pro- ducto pq, que también se hace público, pero el hallazgo de la clave de decodificación d a partir de la clave de codificación c requiere que se conozca (p − 1)(q − 1), que se obtiene de la descomposición de pq, que no se puede hacer velozmente. En general, actualmente se sabe de miles de problemas de interés teórico o de utilidad aplicativa que están en NP, sin saber si tam- bién están en P. Ejemplos relacionados con cuestiones que ya hemos considerado anteriormente son la posibilidad de satisfacer fórmu- las preposicionales, la existencia de soluciones enteras de ecuaciones diofánticas cuadráticas y la posibilidad de colorear un papel con tres colores. Un ejemplo de problema variacional para algunos casos, del que se puede obtener una solución empírica con pompas de jabón, es el problema de Steiner: dado un mapa, conectar las ciudades con calles de manera que el largo total del retículo vial sea mínimo (la solución que se obtiene con pompas de jabón es óptima localmente, pero no siempre globalmente). Un ejemplo parecido muy conocido, por su interés aplicativo, es el problema del vendedor viajante: dado un mapa con ciudades conectadas por calles, encontrar el recorrido de largo mínimo que pase por cada ciudad exactamente una vez. Uno de los descubrimientos sorprendentes de Cook, Karp y Le- vin fue que todos estos problemas (con la única posible excepción de la descomponibilidad), así como otros miles en las áreas más va- riadas de la matemática pura y aplicada, son sustancialmente equi- valentes; encontrar una solución polinomial para cualquiera de ellos significaría encontrar una para todos, porque existen traducciones polinomiales de cada uno de ellos a los otros. Por estos resultados La Matemática del siglo XX 203 Cook y Karp recibieron el Turing Award, respectivamente en 1982 y 1985. Levin, en cambio, terminó en prisión como disidente, y des- pués de ser liberado por intervención de Kolmogorov emigró de la Unión Soviética. Encontrar una solución polinomial, o bien demostrar que no exis- te, para cualquiera de los problemas equivalentes aislados por Cook, Karp y Levin hasta ahora ha resultado imposible; el problema de de- finir si P y NP son o no la misma clase se ha tornado un desafío, y se ha convertido en el problema abierto más conocido de la informática teórica. Para enunciar una reformulación puramente matemática del pro- blema, recordemos que el famoso Nullstellensatz de Hilbert de 1890 daba una condición necesaria y suficiente para que un sistema fini- to de ecuaciones polinomiales de coeficientes complejos tenga una solución. Brownawell demostró en 1987 que el problema se puede resolver en tiempo exponencial, pero no se sabe si también se pue- de resolver en tiempo polinomial. Reduciendo los coeficientes de los polinomios y las soluciones del sistema sólo a números raciónales (o también sólo a números 0 y 1), una solución polinomial del problema existe si, y sólo si, P es igual a NP. Nuestra disertación concluye en- tonces, de manera apropiada, con la misma insignia del vital espíritu de Hilbert que la ha invadido. 204 8. Problemas irresueltos 9 Conclusión En el final de nuestro recorrido a través de la matemática del siglo XX, no nos queda más que recapitular sus etapas. La naturaleza dia- crónica y de collage de la exposición, por otra parte anunciada, quizás requiere un enfoque complementario, que aisle de la trama del tejido los principales hilos. Los proponemos enseguida en forma de tablas de recapitulación. PROBLEMAS Y CONJETURAS Ante todo, fueron los problemas y las conjeturas los que nos guia- ron en la historia de la búsqueda de sus soluciones, y recordamos aquí los más importantes: 300 a.C. Euclides números perfectos 1611 Kepler configuraciones de esferas de máxima densidad 1637 Fermat soluciones enteras de xn + yn = zn 205 206 9. Conclusión 1640 Fermat primos de tipo 22 n + 1 1742 Goldbach enteros pares como suma de dos primos 1847 Plateau superficies minimales 1852 Guthrie coloración de mapas con cuatro colores 1859 Riemann ceros de la función ζ 1883 Cantor hipótesis del continuo 1897 Mertens límite de la función M de Moebius 1902 Burnside (I) grupos periódicos finitamente generados 1904 Poincaré caracterización de la hiperesfera 1906 Burnside (II) grupos simples impares de orden1922 Mordell soluciones infinitas de las ecuaciones diofánticas 1928 Hilbert decisión de la lógica de primer orden 1933 Robbins axiomatización de las álgebras booleanas 1949 Weil hipótesis de Riemann sobre los campos finitos 1955 Taniyama parametrización de las curvas elípticas 1962 Shafarevich, reducciones de ecuacones del módulo de los números primos 1972 Cook, Karp y Levin P = NP 1979 Conway y Norton Claro de luna Una mención especial merecen los problemas de Hilbert de 1900, que fueron uno de los motivos conductores de nuestra exposición, y entre los cuales hemos citado los siguientes: primero hipótesis del continuo segundo consistencia del análisis La Matemática del siglo XX 207 tercero descomposición del tetraedro cuarto geodésicas en varias geometrías quinto grupos localmente euclídeos y de Lie sexto axiomatización de la probabilidad y de la física séptimo trascendencia de eπ y 2 √ 2 octavo hipótesis de Riemann, conjetura de Goldbach décimo soluciones de las ecuaciones diofánticas decimotavo grupos cristalográficos, problema de Kepler decimonoveno analiticidad de las soluciones de problemas variacionales vigésimo existencia de las soluciones de problemas variacionales vigésimo tercero cálculo variacional RESULTADOS El otro hilo conductor de nuestra exposición han sido los trabajos de los ganadores de las medallas Fields y de los premios Wolf, entre los cuales hemos intentado citar los resultados más significativos de la mayoría. De las medallas Fields hemos recordado: 1936 Douglas problema de Plateau 1950 Schwartz teoría de las distribuciones 1950 Selberg teorema de los números primos 1954 Kodaira clasificación de las variedades algebraicas en 2 dimensiones 1954 Serre grupos de homotopía de las esferas en n dimensiones 1958 Roth aproximaciones racionales de irracionales algebraicos 1958 Thom teoría del cobordismo 1962 Hörmander operadores hipoelípticos 1962 Milnor estructura exótica de la esfera de 7 dimensiones 208 9. Conclusión 1966 Atiyah K-teoría, teorema del índice 1966 Cohen independencia de la hipótesis del continuo 1966 Grothendieck esquemas, cohomología l-ádica 1966 Smale conjetura de Poincaré en dimensiones ≥ 5 1970 Baker extensión de los teoremas de Lindemann y Gelfond 1970 Hironaka resolución de singularidades en variedades algebraicas 1970 Novikov clasificación de las variedades diferenciables en dimensiones ≥ 5 1970 Thompson segunda conjetura de Burnside 1974 Bombieri teoría de números, superficies minimales 1978 Deligne conjetura de Weil 1983 Connes álgebras de operadores de Von Neumann 1983 Thurston clasificiación de superficies en 3 dimensiones 1983 Yau varidades de Calabi-Yau 1986 Donaldson estructura exótica del espacio en 4 dimensiones 1986 Faltings conjeturas de Shafarevich, y Mordell 1986 Freedman clasificación de las variedades en 4 dimensiones 1990 Jones invariantes de nudos 1990 Witten teoría de supercuerdas 1994 Bourgain subespacios de Hilbert de espacios de Banach 1994 Yoccoz teorema KAM, conjunto de Mandelbrot 1994 Zelmanov primera conjetura de Burnside condensada 1998 Borcherds conjetura Claro de luna 1998 Gowers espacios de Banach (no) simétricos 1998 Kontsevich invariantes de nudos 1998 McCullen conjunto de Mandelbrot La Matemática del siglo XX 209 De los premios Wolf hemos recordado: 1978 Siegel 1979 Weil 1980 Kolmogorov 1982 Whitney 1983-84 Erdös 1984-85 Kodaira 1986 Eilenberg, Selberg 1988 Hörmander 1989 Milnor 1990 De Giorgi 1992 Thompson 1993 Mandelbrot (física) 1994-95 Moser 1995-96 Langlands, Wiles 2000 Serre Además de los matemáticos, también hemos citado, aunque ve- lozmente, los resultados de algunos informáticos que recibieron el más alto reconocimiento en su campo, es decir, el Turing Award: 1969 Minsky Inteligencia Artificial 1971 McCarthy Inteligencia Artificial 1975 Newell y Simon Inteligencia Artificial 1976 Scott semántica del Lambda Cálculo 1982 Cook teoría de la complejidad 1985 Karp teoría de la complejidad 210 9. Conclusión Algunos trabajos de matemática aplicada están directamente vin- culados a resultados que han llevado a sus autores o a otros al premio Nobel, en varias disciplinas: 1932 Heisenberg física mecánica cuántica 1933 Schrödinger física mecánica cuántica 1962 Crick y Watson medicina estructura del ADN 1969 Gell-Mann física simetría de los quark 1972 Arrow economía selección social, equilibrio general 1975 Kantorovich y Koopman economía programación lineal 1976 Prigogine química dinámica de los sistemas disipativos 1979 Glashow, Weinberg y Salam física simetría de la fuerza electrodébil 1983 Debreu economía equilibrio general 1994 Nash economía teoría de los juegos 10 Bibliografía Ante todo citamos una serie de textos de divulgación que pueden ser útiles para complementar la lectura de nuestro trabajo: Casti, John, Five golden rules: great theories of 20th century mathematics, and why they matter, Wiley, 1996. Cuadernos “Le Scienze”: Matematica e calcolatore (No14, marzo de 1984) Numeri, caso e sequenze (No45, diciembre de 1988) Logica (No60, junio de 1991) La matematica della complessità (No67, septiembre de 1992) Modelli matematici (No81, diciembre de 1994) Matematica computazionale (No84, junio de 1995) Insiemi, gruppi, strutture (No92, octubre de 1996) Caos, complessità e probabilità (No98, octubre de 1997). Devlin, Keith, Mathematics: the new golden age, Londres, Penguin Books, 1988. Dieudonné, Jean, Pour l’honneur de l’esprit humain, París, Hachette, 1987. Lang, Serge, Beauty of doing mathematics, Nueva York, Springer Verlag, 1997 [trad. esp.:El placer estético de las matemáticas, Madrid,Alianza Editorial, 1994]. 211 212 10. Bibliografía Lettera matematica pritem, publicación trimestral de divulgación matemática de Springer Verlag Italia (Via Podgora 4, 20122, Milán). Stewart, Ian, From here to infinity: a guide to today’s mathematics, Oxford Univer- sity Press, 1996. Tannenbaum, Peter y Arnold, Robert, Excursions in Modern Mathematics (2aed.), Prentice Hall, 1995. The mathematical intelligencer, publicación trimestral de divulgaciónmatemática de Springer Verlag Nueva York (175 Fifth Avenue, Nueva York, NY 10010, USA). Quienes posean conocimientosmás profundos dematemática po- drán consultar: Arnold, Vladimir, Atiyah, Michael, Lax, Peter y Mazur, Barry (dirs.), Mathe- matics Tomorrow, International Mathematical Union, 2000. Atiyah, Michael y Iagolnitzer, Daniel (dirs.), Fields medallists’ lectures, World Scientific, 1997. Bottazzini, Umberto, Teoremi e congetture, vol. 8 de Storia del pensiero filosófico e scientific, Garzanti, 1996, pp. 115-44. Browder, Felix (dir.),Mathematical development arising fromHilbert problems, Ame- rican Mathematical Society, 1976. Casacuberta, Carles y Castellet, Manuel (dir.), Mathematical research today and tomorrow: viewpoints of seven Fields medalists, Springer Verlag, 1992. Halmos, Paul, “Has progress in mathematics slowed down?” en Mathematical American Association Monthly, 1990,561-588. Kantor, Jean-Michel, “Hilbert’s problems and their sequel”, enMathematical in- telligencer, 18 (1996), pp. 21-30. Kline, Morris,Mathematical Thought from Ancient to Modern Times, Nueva York, Oxford University Press, 1990, caps, XLIII-LI [trad, esp.: El pensamiento mate- mático de la Antigüedad a nuestros días, Madrid, Alianza Editorial, 1992]. Monastyrsky, Michael, Modern mathematics in the light of the Fields medals, AK Peters, 1997. La Matemática del siglo XX 213 Pier, Jean-Paul (dir.), The development of mathematics, 1900-1950, Birkauser, 1994. ——–, The development of mathematics, 1950-2000, Birkauser, 2000. Smale, Stephen, "Mathematical problems for the next century" enMathematical Intelligencer, 20, 1998, pp. 7-15. 214 10. Bibliografía 11 Índice de nombres A Bayes, Thomas, 136 Abel, Niels, 86, 157 Bell, John, 111-112 Adian, S.I., 92 Beltrami, Eugenio, 57, 123 Agustín, Aurelio, san, 189 Berger, Robert, 119 Alejandro Magno, 152 Berkeley, George, 74Alexander, James, 154, 158 Bernoulli, Daniel, 135-136 Apolonio de Perge, 59 Bernoulli, Jacques, 136 Appel, Kenneth, 163, 175, 179 Bernoulli, Jean, 61 Arquímedes, 13, 39, 43, 73 Bernstein, Serge, 68 Arnol’d, Vladimir, 151 Bieberbach, Ludwig, 117 Arrow, Kenneth, 113-114, 143, 210 Bohr, Niels, 111, 156 Artin, Emil, 193 Bolyai, Jànos, 42-43, 57 Aspect, Alain, 112 Bolzano, Bernhard, 77 Atiyah, Michael, 69, 198, 208 Bombelli, Raffaele, 47 Bombieri, Enrico, 63, 121, 208 B Boole, George, 161 Babbage, Charles, 170 Boone, William, 147 Baire, René, 66 Borcherds, Richard, 157, 208 Baker, Alan, 56, 168-169, 208 Borel, Emile, 127 Banach, Stefan, 45, 52, 132, 133, 208 Botvinnik, Mijail, 171 215 216 11. Índice de nombres Bourbaki, Nicolas, 24-25, 26, 27, 28, Connes, Alain, 133, 208 31 Conrad, Brian, 103 Bourgain, Jean, 134, 208 Conway, John, 76, 106, 120, 157, 206 Bravais, Auguste, 86, 116 Cook, Stephen, 200, 202, 203, 206, 209 Breuil, Christophe, 103 Cournot, Antoine-Augustine, 141 Brouwer, Luitzen, 31, 49-50-51, 127, Cox, Donna, 164 142, 143 Crick, Francis, 115, 210 Buffon, Georges-Louis Leclere, Cusano, Nicola, 73, 74 conde de, 136 Burnside, Williams, 92, 206 D Dantzig, George, 139, 142 C Davis, Martin, 168 Calabi, Eugenio, 97, 157, 208 De Giorgi, Ennio, 63, 209 Cantor, Georg, 19, 20, 24, 32, 47, 49, De Morgan, Augustus, 46, 176 50, 54, 59, 76-79, 167, 206 De Riele, Hermann, 181 Cardano, Gerolamo, 47, 86, 134 Debreu, Gerard, 143, 210 Cartan, Elie, 88 Dedekind, Richard, 47, 59 Carter, Jimmy, 113 Dehn, Max, 43, 154, 187 Cartesio, 19, 47, 58, 65, 80, 195 Deligne, Pierre, 100, 193, 208 Castelnuovo, Guido, 96 Descartes, René, véase Cartesio Cauchy, Augustin, 44, 75 Diamond, Fred, 103 Cavalieri, Bonaventura, 74 Diofanto de Alejandría, 38, 97, 99 Cayley, Arthur, 87 Dirac, Paul, 67 Chevalley, Claude, 91 Dirichelet, Peter G. Lejeune, 66, 98 Chomsky, Noam, 144-146 Donaldson, Simon, 71-72, 157, 208 Church, Alonzo, 32, 33-34, 147, 166, Douady, Adrien, 185 167 Douglas, Jessie, 60, 63, 207 Cobham, 199 Duns Scoto, 77 Cohen, Paul, 77, 79, 208 Condorcet (Marie-Jean-Antoine- E Nicolas de Claritat, marqués de, Edmonds, Jack, 199 113-114 Eilenberg, Samuel, 28, 209 La Matemática del siglo XX 217 Einstein, Albert, 111, 122, 124 Frege, Gottlob, 20, 32, 161 Emmer, Michele, 64 Frey, Gerhard, 102 Enriques, Federigo, 96 Erdös, Paul, 194, 209 G Escher, Maurits, 117, 120 Galileo, Galilei, 61, 77 Euclides, 18, 25, 38, 41, 42, 43, 44, 58, Galois, Evariste, 47, 49, 86, 87, 90, 91 59, 168, 189, 190, 191 Gauss, Carl Friedich, 47, 57, 104, Eudoxio de Cnido, 43 122-124, 137, 152, 168, 192 Euler, Leonhard, 55, 56, 62-65, 98, 100, Gelfond, Alexandre, 56, 208 149, 160, 189, 190, 191, 192, 194, 195, Gell-Mann, Murray, 89, 210 200 Gentzen, Gerhard, 60 Glashow, Seldon, 89, 210 F Gleason, Andrew, 88 Faltings, Gerd, 100, 101, 194, 208 Glennie, Alick, 171 Farey, John, 78 Gödel, Kurt, 23, 60, 79, 147, 167, 180, 188 Fatou, Pierre, 184 Goldbach, Christian, 193, 206 Fermat, Pierre de, 38, 39, 56, 58, Gompf, Robert, 72 73-76, 83, 97-102, 134, 159, 160, 168, Gorenstein, Daniel, 86, 91-92 189, 190, 194, 202, 205 Gowers, William, 134, 208 Ferrari, Ludovico, 86 Granville, Andrew, 101 Feynman, Richard, 157 Griess, Robert, 91, 156 Fields, John Charles, 13 Gross, David, 90 Fischer, Bernd, 91, 156 Grothendieck, Alexandre, 27, 30, 31, Fischer, Ernst, 132 134, 194, 208 Fontana, Niccolò, 86 Gua de Malves, Jean Paul de, 81 Ford, Gerald, 113 Guthrie, Francis, 175, 206 Fourier, Joseph, 66, 131, 151 Fraenkel, Abraham, 22-23, 24, 27, H 29-30, 79 Hadamard, Jacques, 193 Francis, George, 164 Haken, Wolfgang, 163, 179 Fréchet, Maurice, 131 Hales, Thomas, 103, 104 Freedman, Michael, 71, 96, 197, 208 Hamilton, William, 47, 63 218 11. Índice de nombres Hardy, Godfrey, 13, 193 K Harriot, Thomas, 103 Kakutani, Shizuo, 52, 143 Hausdorff, Félix, 45, 182 Kantorovich, Leonid, 140, 210 Heath-Brown, Roger, 101 Karp, Richard, 200, 202, 203, 206, 209 Heaviside, Oliver, 66-67 Kasparov, Gary, 172 Heawood, Percy, 176 Kelvin, William Thomson (lord Heesch, Heinrich, 117 Kelvin), 155 Heisenberg, Werner, 132, 133, 210 Kempe, Alfred, 176, 179 Helmholtz, Hermann, 156 Kepler, Johannes, 103, 104, 148, 180, Hermite, Charles, 55 205, 207 Herón de Alejandría, 62 Kerékjártó, Béla, 70 Hilbert, David, 12, 14, 24, 42, 43, 56, 59, Kervaire, Michel, 70 60, 63, 68, 77, 80, 88, 104, 117, 125, Khachian, L.G., 200 130-134, 138, 165-168, 187, 188, 193, Khayyâm, Omar, 97 203-208 Killing, Wilhelm, 88 Hiparco de Nicea, 58 Kleene, Stephen, 34 Hironaka, Heisuki, 97, 208 Klein, Félix, 57, 58, 93, 94, 95, 152, 195 Hobbes, Thomas, 126 Knaster, B., 52 Hoffman, David, 64, 164 Koch, ver Von Koch, Niels Fabien Hörmander, Lars, 68, 207, 209 Helge Hubbard, John, 185 Kodaira, Kunihiko, 96, 207, 209 Hurewicz, Witol, 197 Kolmogorov, Andrej, 138, 151, 203, Huygens, Christian, 135 209 Kontsevich, Maxim, 155, 157, 208 J Koopmans, Tjalling, 140, 210 Jacobi, Carl, 157 Korchnoi, Victor, 172 Janko, Zvonimir, 91 Kronecker, Leopold, 59 Jones, Vaugham, 133, 155, 156-158, Kummer, Enrst Eduard, 98 208 Jordan, Camille, 43, 44, 45, 63 L Judaeus, Philo, 189 Lacan, Jacques, 145 Julia, Gastón, 184 Laczkovich, Miklos, 45 La Matemática del siglo XX 219 Lagrange, Joseph Louis, 62, 149 Maxwell, James Clerk, 72, 125 Lamé Gabriel, 98 McCarthy, John, 170, 209 Langlands, Robert, 39, 209 McCulloch, Warren, 161 Laplace, Pierre Simon de, 137, 149 McCullen, Curtis, 185, 208 Larsen, Bent, 172 McCune, William, 163 Lawvere, William, 29, 30, 31 Meeks, William, 64, 164 Lebesgue, Henri, 44, 45, 54, 131, 138 Menger, Karl, 183 Leech, John, 106 Mersenne, Marin, 190, 191 Lefschetz, Solomon, 52 Mertens, Franz, 181, 206 Legendre, Adrien-Marie, 98 Mills, Robert, 72, 89 Leibniz, Gottfried Wilhelm, 20, 61, Milnor, John, 70, 71, 72, 94, 198, 207, 74-75, 195 209 Leonardo da Vinci, 62 Minsky, Marvin, 170, 209 Levi Civita, Tullio, 124, 125 Mischaikov, Konstantin, 174 Lévi-Strauss, Claude, 145 Mittag-Leffler, Gösta, 14 Levy, David, 172 Moebius, Augustus, 93, 95, 152, 180, Lie, Sophus, 88-91, 207 195, 206 Lindemann, Ferdinand, 55, 56, 208 Moise, 70 Liouville, Joseph, 54, 132 Montgomery, Deane, 88 Listing, Johann, 93, 152 Mordell, Leo, 100, 168, 194, 206, 208 Lobachevsky, Nikolai, 57 Morgan, Augustus de, 46, 176 Lorenz, Edward, 164, 174-175 Morgenstern, Oscar, 128 Mori, Shigefume, 97 M Morse, Marston, 83, 84 MacLane, Saunders, 28, 30 Moser, Jürgen, 151, 209 Mandelbrot, Benoît, 165, 184, Mrozek, Marian, 174 185-186, 208, 209 Markov, Anatoly, 147 N Mather, John, 85 Nash, John Forbes, 128, 129, 210 Mathieu, Émile, 90 Newell, Allen, 170, 209 Matiyasevich, Yuri, 168-169 Newton, Isaac, 59, 61, 62, 74, 75, 80, Maupertuis, Pierre Louis de, 62 83, 122, 148, 149, 149 220 11. Índice de nombres Nicolás de Oresme, 58 R Nobel, Alfred, 14 Rado, Tibor, 70 Norton, Simon, 157, 206 Raleigh, Walter, 103 Novikov, Pavel, 147 Ramanujan, Srinivasa, 194 Novikov, Petr, 92 Reagan, Ronald, 113, 144 Novikov, Sergei, 71, 92, 121, 198, 208 Ribet, Ken, 102 Ricci Curbastro, Gregorio, 124 O Riemann, Bernhard, 44-45, 56, 70, 93, Odifreddi, Piergiorgio, 2, 5, 6 123-125, 152, 181, 189, 191-201, 206, Odlyzko, Andrew, 181 207 Óscar II, rey, 150 Riesz, Friedich, 132 Robbins, Herbert, 163, 206 P Robinson, Abraham, 73, 76 Pacioli, Luca, 134 Robinson, Julia, 168 Pareto, Vilfredo, 141 Rokhlim, Vladimir, 71, 198 Parshin, A. N., 100 Rosen, Nathan, 111 Pascal, Blas, 134 Rosser, John Barkley, 33 Peano, Giuseppe, 43, 44, 66 Roth, Klaus, 54, 207 Penrose, Roger, 120, 121 Rousseau, Jean Jacques, 126 Pfleger, Helmut, 172 Ruffini, Paolo, 86 Piaget, Jean, 145 Russell, Bertrand, 20-21, 30-33, 161, Píndaro, 4 167 Pitágoras, 52, 57, 59, 131 Pitts, Walter, 161 S Plateau, Joseph, 63-64, 206-207 Salam, Abdus, 89, 210 Podolsky, Boris, 111 Saussure, Ferdinand de, 144-145 Poincaré, Henri, 12, 40, 57, 58, 150, Scarf, Herbert, 144 151, 189, 195, 196, 197, 206, 208 Schechtman,Daniel, 120 Pontryagin, Lev, 198 Schlesinger, Karl, 142 Post, Emil, 145, 147, 166 Schmidt, Erhard, 131 Prigogine, Ilya, 85, 210 Schneider, Thorald, 56 Putnam, Hilary, 168 Schrödinger, Erwin, 132, 210 La Matemática del siglo XX 221 Schwartz, Laurent, 65, 68, 134, 207 Tucker, Albert, 129 Scott, Dana, 34, 209 Turing, Alan, 147, 161-162, 166-167, Segre, Corrado, 96 169-171, 198 Selberg, Atle, 194, 207, 209 Serre, Jean-Pierre, 198, 207, 209 V Severi, Francesco, 96 Vallée Poussin, Charles-Jean de la, Shaferevich, Igor, 100, 206, 208, 193 Shannon, Claude, 171 Virgilio Marón, Publio, 4 Siegel, Carl, 56, 209 Vitali, Giuseppe, 45 Simon, Herbert, 170, 171, 209 Volterra, Vito, 130 Singer, Isadore, 69, 198 Von Koch, Niels Fabien Helge, 68, Sloane, N. J. A., 106 181-182 Smale, Stephen, 41, 143, 197, 198, 208 Von Neumann, John, 11, 67, 114, 127, Smith, Adam, 141, 143, 144 129, 132, 133, 142-164, 208 Sonnenschein, Hugo, 144 Sperner, Emmanuel, 51 W Steiner, Jacob, 61 Wada, 175, 177 Steinitz, Ernst, 48 Wald, Abraham, 142 Wallis, John, 47, 59 T Walras, Léon, 141-143 Tait, Peter, 156 Wang, Hao, 118 Taniyama, Jutaka, 101, 102, 103, 206 Wantzel, Pierre, 53 Tarski, Alfred, 45, 52 Watson, James, 115, 210 Taubes, Clifford, 72 Weber, Heinrich, 46 Taylor, Richard, 103 Weierstrass, Karl, 59, 61, 75 Thatcher, Margaret, 144 Weil, André, 100, 193, 206, 208, 209 Thom, René, 69, 84, 85, 198, 207 Weinberg, Steven, 89, 210 Thompson, John, 92, 208, 209 Weyl, Hermann, 125 Thue, Axel, 104, 145-147 Whitney, Hassler, 84, 209 Thurston, William, 94, 152, 196, 197, Wilczek, Frank, 90 208 Wiles, Andrew, 38, 97, 102, 194, 209 Torres y Quevedo, Leonardo, 171 Witten, Edward, 69, 72, 156, 208 222 11. Índice de nombres Wittgenstein, Ludwig, 79, 160 Wolf, Ricardo, 14 Wos, Larry, 163 Y Yang, Chen Ning, 72, 89 Yau, Shing Tung, 97, 157, 208 Yoccoz, Jean Christophe, 152, 185, 208 Z Zeeman, Christopher, 85 Zelmanov, Efim, 92, 208 Zermelo, Ernst, 22-23, 24, 27, 29, 30, 79, 127 Zippin, 88 El siglo XX fue el siglo de la matemática: sólo en cien años se demostraron más teoremas que en todo el curso de la historia, y muchos de ellos han encontrado aplicaciones en los campos más variados de la ciencia e incluso de las humanidades. Describiendo las ideas, los resultados, a los protagonistas principales y los pro- blemas irresueltos, La matemática del siglo XX reconstruye del modo más sencillo posible los extraordinarios logros de una disciplina to- davía percibida como abstrusa y distante de la vida cotidiana. Aparece así ante el lector la empresa de algunos gigantes del siglo, desde Einstein a Gödel. Se narran las soluciones de algunos dilemas, del teorema de Fermat a la hipótesis del continuo. Se ilu- minan, desde una perspectiva actual, algunas teorías clásicas, de la aritmética a la geometría. Se asiste al nacimiento de nuevos instru- mentos, del cálculo tensorial a la teoría de juegos. Se encuentran objetos insólitos, de los nudos a los atractores extraños. En suma, el lector se familiariza con el lenguaje del tercer milenio, sin el cual no le será posible comprender ni la ciencia ni la tecnología del mundo actual. Prólogo de Gian Carlo Rota Agradecimientos Introducción Fundamentos Década de 1920: Los Conjuntos Década de 1940: Las Estructuras Década de 1960: Las Categorías Década de 1980: El Lambda Cálculo Matemática Pura Análisis: La medida de Lebegue (1902) Álgebra: La Clasificación de los campos de Steinitz (1910) Topología: El Teorema del Punto Fijo de Brouwer (1910) Teoría de Números: Los Números Trascendentes de Gelfond (1929) Lógica: El Teorema de Incompletitud de Gödel (1931) Calculo Variacional: Las superficies minimales de Douglas (1931) Análisis: Las distribuciones de Schwartz (1945) Topología Diferencial: Las estructuras exóticas de Milnor (1956) Teoría de los Modelos: Los Números Hiperreales de Robinson (1961) Teoría de Conjuntos: El Teorema de Independencia de Cohen (1963) Teoría de Singularidades: La Clasificación de las Catástrofes de Thom (1964) Álgebra: La Clasificación de los Grupos Finitos de Gorenstein (1972) Topología: La Clasificac. de las Superf. Tridimensionales de Thurston (1982) Teoría de Números: La demost. de Wiles del Últ. Teorema de Fermat (1995) Geometría Discreta: La solución de Hales al Problema de Kepler (1998) Matemática Aplicada Cristalografía: Los Grupos de Simetría de Bieberback (1910) Cálculo Tensorial: La relatividad general de Einstein (1915) Teoría de Juegos: El Teorema Minimax de Von Neumann (1928) Análisis Funcional: La Axiomat. de la Mec. Cuántica de V. Neumann (1932) Teoría de la Probabilidad: La Axiomatización de Kolmogorov (1933) Teoría de la Optimización: El Método del Simplex de Dantzig (1947) Teoría del Equilibrio Gral.: El Th. de Existencia de Arrow y Debreu (1954) Teoría los lenguajes formales: La clasificación de Chomsky (1957) Teoría de los Sistemas Dinámicos: El Teorema Kam (1962) Teoría de los Nudos: Los Invariantes de Jones (1984) La Matemática y el Ordenador Teoría de Algoritmos: La Caracterización de Turing (1936) Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950) Teoría del Caos: El Atractor extraño de Lorenz (1963) Demostraciones asistidas: El Th. de los 4 Colores de Appel y Haken (1976) Fractales: El conjunto de Mandelbrot (1980) Problemas irresueltos Aritmética: El Problema de los Números Perfectos (300 a.C.) Análisis complejo: La Hipótesis de Riemann (1859) Topología Algebraica: La Conjetura de Poincaré (1904) Teoría de la Complejidad: El Problema P = NP (1972) Conclusión Bibliografía Índice de nombres