Jaron Lanier: Compartir la riqueza digital

George Dyson, autor de La catedral de Turing: Los orígenes del universo digital, presenta aquí un pasaje extraído de ¿Quién controla el futuro?, de Jaron Lanier, en el que el autor defiende una distribución más equitativa de la riqueza que se crea en internet.

Las revoluciones siempre encuentran la manera de decepcionar a sus impulsores. Basta con preguntarle a Marx. La revolución digital no es una excepción, y Jaron Lanier está aquí para recordárnoslo. Internet, tras su promesa inicial de descentralizarlo todo, ha hecho posible la mayor consolidación de riqueza, poder y territorio desde el imperio mongol.

Apple, Amazon, Facebook, and Google —los cuatro «servidores sirena» del apocalipsis— se están repartiendo el mundo entre ellos, y al resto no nos dejan más que las migajas. Apple, tras exhortarnos a «pensar diferente», está construyendo un futuro en el que todos tendremos que pensar de la misma manera. Amazon no es únicamente el centro comercial que acabará con todos los centros comerciales, sino también la tienda de la esquina que acabará con todas las demás tienditas. Facebook monetiza sin escrúpulos el grafo social. Google  registra y vende todos y cada uno de nuestros movimientos.

Esto parece deprimente, pero la cosa es aún peor. Lanier argumenta que la economía digital amenaza con matar a la gallina de los huevos de oro: nosotros mismos. Imbuido del poder de internet, el ordenador personal, que en otra época fue una máquina para las masas, ha comenzado a eviscerar a la clase media.

george_dyson_y_portada

Y ahora la buena noticia. Lanier también ofrece varias prescripciones, y los advenedizos que las sigan bien podrían imponerse a los dinosaurios que no lo hagan. Su consejo es sencillo: no basta con recaudar tributos (en forma de datos monetizables y creatividad individual) de los siervos que se afanan en lo más bajo de la economía digital, sino que hay que devolverles una parte de lo extraído. Lanier no se refiere únicamente al pago del impuesto de sociedades (el escándalo de Apple estalló tras la publicación del libro), sino que también incluye, por ejemplo, aplicar la misma maestría con los algoritmos que le permite a Google subastar palabras individuales con propósitos publicitarios para recompensar a los autores concretos que las escriben.

«Los autómatas se utilizaban principalmente con fines publicitarios», advertía Samuel Butler en sus notas para Erewhon Revisited, el retorno a la distopía tecnología que imaginó por primera vez en 1872. Nos avisaron entonces y nos vuelven a avisar ahora. Es mucho lo que nos jugamos, y su importancia no hace más que aumentar.

George Dyson

Extracto del capítulo 22 de ¿Quién controla el futuro?, de Jaron Lanier.

El panorama laboral en el mundo físico está cada vez más «vaciado». Cada vez es más habitual que la gente se gane la vida con trabajos sin porvenir, en el extremo inferior, o en trabajos de élite, en el superior.

En mi opinión, esto significa que la economía está obsoleta y debe ser reformada para estar a la altura del progreso tecnológico. Pero otros interpretan que son las personas las que están quedando obsoletas.

Como ya comenté antes, oigo este exasperante comentario muy a menudo: «Si hay muchas personas normales que ganan poco dinero en los mercados actuales, es porque tienen poco valor que ofrecer. No podemos intervenir para crear el espejismo de que son valiosas. Les corresponde a ellas demostrar que lo son.»

Vale, estoy de acuerdo. No abogo por crear falsos puestos de trabajo para generar la ilusión de que la gente tiene empleo. Eso sería degradante y toda una incitación al fraude y a la corrupción.

Pero es de lo más habitual que las compañías basadas en la red amasen enormes cantidades de dinero precisamente a base de darle valor a lo que las personas normales hacen online. El mercado no está diciendo que las personas normales no tengan ningún valor online; lo que sucede más bien es que se las ha excluido de su propio valor comercial.

Las propuestas en favor de una economía de la información humanista son recibidas muchas veces con una sonrisa de desdén. ¿Cómo podrían las personas normales, corrientes y molientes, tener algo que ofrecer en un mundo dominado por una élite tecnológica y por máquinas avanzadas?

Esta reacción es comprensible, ya que estamos acostumbrados a ver cómo languidecen las personas subempleadas. Pero hay ocasiones en las que estas dudas sobre el valor de los demás son muestra de unos prejuicios ofensivos.

Por ejemplo, en una situación en la que los inversores muestran una firme confianza a la hora de valorar en decenas de miles millones de dólares a un servidor sirena que acumula datos sobre personas, por muy remota que sea la posibilidad de que pueda llevar a la práctica un plan de negocio que proporcione unos beneficios proporcionales a la valoración. Y, al mismo tiempo, esos inversores son incapaces de imaginar que las personas, que son la fuente exclusiva de eso que les parece tan valioso, puedan tener algún valor.

Jaron Lanier: ¿Quién controla el futuro? | Por amor a la ciencia

Además, están los expertos que se lanzan sobre cualquiera que señale los disparates de lo que sucede últimamente en Silicon Valley. Si alguien se queja de que todos esos brillantes recién licenciados quizá podrían dedicarse a algo más sustancial que buscar nuevas maneras de colocar enlaces patrocinados ante los ojos de las personas, podemos esperar como respuesta un rigurosa defensa del valor no monetario que crea la computación en la nube actual. Por ejemplo, Twitter aún no ha encontrado el modo de ganar mucho dinero, pero se le defiende con argumentos como este: «¡Hay que tener en cuenta todo el valor informal que está generando al hacer que la gente conecte mejor entre sí!»

Sí, fijémonos en todo ese valor. Es real, y si queremos que la economía basada en la información crezca, ese valor debería formar parte de nuestra economía. ¿Por qué de pronto es beneficioso para el capitalismo que una parte cada vez más importante del valor total no quede reflejada en la contabilidad?

¿Por qué debe darse la situación de que, desde la perspectiva del servidor sirena, el hecho de saber lo que hacen las personas normales es extraordinariamente valioso, mientras que, desde un punto de vista personal, esos mismísimos datos normalmente solo permiten obtener unas míseras migajas, en forma de sofás donde pasar la noche o efímeros subidones de ego?

O, por decirlo de otra manera, una vez que sectores como los del transporte, la energía y la sanidad empiecen a estar mediados por el software, ¿no deberían las industrias de la comunicación y el entretenimiento ganar mayor importancia relativa en la economía, haciéndose con una parte más grande del pastel? Pero son precisamente estas industrias las que hasta ahora el software ha contribuido a socavar.

Cada vez que un determinado tipo de tarea es susceptible de ser automatizada, ganan visibilidad otras que no pueden serlo. Desde un punto de vista económico, la cuestión es quién paga por lo que hacen las personas normales más allá del horizonte de automatización en determinada fase histórica.

Siempre que se les pague por su labor a quienes realizan las tareas que no se pueden automatizar, sobrevivirá una economía humana íntegra. Pero, si quienes reciben ese dinero son quienes gestionan los ordenadores más potentes de la red, esa economía dejará de ser íntegra.

Así las cosas, en una economía de la información humanista y una vez que el software en la nube, combinado con los robots y otros dispositivos, pudiese satisfacer la mayoría de las necesidades y deseos vitales, ¿obtendrían las personas el suficiente valor unas de otras como para ganarse la vida? O, por decirlo de una manera más directa: «A largo plazo, ¿residirá el suficiente valor en las personas normales como para justificar la existencia de una economía?»

Para poder encontrar una respuesta, debemos partir de ideas ya familiares sobre lo que las personas pueden hacer por los servidores sirena, y modificar ligeramente la cuestión para centrarnos en lo que las personas pueden hacer en su propio beneficio y en el de los demás. Hay al menos dos respuestas evidentes.

La primera es que las personas muestran un interés infinito en lo que otras personas expresan online. Cantidades enormes de personas encuentran público para sus tuits, blogs, publicaciones en redes sociales, modificaciones de artículos en Wikipedia, vídeos en YouTube, fotografías, colecciones de imágenes o divagaciones, así como para reacciones y remezclas de segundo orden de todo lo anterior. ¿Es realmente tan osado predecir que, en el futuro próximo, una gran cantidad de personas seguirá ofreciendo este valor online, siempre que este se registre de forma completa e íntegra?

Llegado este punto, alguien diría que toda esta actividad es insustancial, que no es la base de una economía. Pero, una vez más: ¿por qué es insustancial cuando beneficia a las personas que la realizan, pero tiene un valor real cuando el beneficiario es un remoto servidor sirena?

La economía no gira alrededor de nuestras propias preferencias sino que, una vez que conseguimos elevarnos por encima de las necesidades básicas y alcanzar un estatus de clase media, lo hace alrededor de las preferencias de los demás, tanto si nos gusta como si no.

Es difícil decir qué proporción de la economía actual está basada en la preferencia y no en la necesidad, ya que, como señaló Abraham Maslow, la línea divisoria entre ambas se desplaza con el tiempo. Como mínimo, no solo la industria del entretenimiento, sino sectores enormes, como la cosmética, los deportes y el ocio, el turismo, el diseño, la moda, la hostelería y la restauración, las aficiones, la cosmética, la cirugía plástica y la mayoría de actividades propias de los geeks deberían contabilizarse como «preferencias» que se han convertido en necesidades, en lo que al comercio se refiere.

Todos estos sectores, tanto si se interpreta que satisfacen deseos o necesidades, seguirían siendo monetizables en un contexto de computación humanista, por mucho que avance la tecnología. Cuando en nuestros hogares existan robots capaces de construir otros robots que produzcan prendas de ropa a partir de diseños encontrados online, el negocio de la moda podría acabar desmonetizado, dependiendo de si la contabilidad del valor es completa o no. En una economía de la información humanista, la contabilidad será completa, las personas seguirán pudiendo ganarse la vida como diseñadores, fotógrafos o modelo, y alcanzarán así la dignidad.

En una economía humanista digital, la economía estará más integrada en el entorno, y los diseñadores seguirán ganándose la vida, aunque sea un robot casero el que cosa las prendas. Y quien las lleve también podría ganar algo de dinero sin buscarlo por el hecho de popularizarlas.

También es de esperar que en el futuro surjan continuamente nuevos deseos y necesidades. ¿Quién sabe cuáles serán? Además de recetas que serán preparadas por glándulas artificiales, también podrían descubrirse modificaciones genéticas que harían más confortables los viajes espaciales, o patrones neuronales que despertarían capacidades especiales latentes en nuestro cerebro, como una mejor aptitud para las matemáticas.

Suceda lo que suceda, si su control se puede transmitir a través de una red en forma de información, habrá que tomar la decisión de si queremos monetizar dicha información o no. Incluso en el caso de que el dinero como concepto quede obsoleto, aún habrá que tomar la decisión sobre si la capacidad de influencia estará centralizada o bien distribuida más cerca de las personas que son la fuente del valor.

Si la respuesta a los deseos o necesidades acaba siendo desmonetizada, salvo para el servidor sirena central que todo lo ve, entonces el progreso de la tecnología digital provocará la parálisis tanto del capitalismo como de la democracia.

Fuente: Share the Digital Wealth | strategy+business

Más de George Dyson en Por amor a la ciencia:

La catedral de Turing: los verdaderos padres de la computación

Más de Jaron Lanier en Por amor a la ciencia:

Jaron Lanier: ¿Quién controla el futuro?

Jaron Lanier: Contra el rebaño digital

 

Ada Lovelace, la primera programadora de la historia

[Hoy, 13 de octubre, segundo martes del mes, se celebra como cada año el Día de Ada Lovelace, que pretende conmemorar con toda una serie de eventos en distintos lugares del mundo la figura de la que muchos consideran la primera programadora de la historia, y a través de ella las aportaciones de las mujeres a la ciencia, la tecnología, la ingeniería y las matemáticas. Desde Por amor a la ciencia nos sumamos a la celebración publicando extractos del capítulo que María José Casado le dedica en su libro Las damas del laboratorio (Debate).]

Ada Lovelace | Por amor a la ciencia
Ada Lovelace. Fuente: Wikipedia.

El padre prohibido

En 1979 el Departamento de Defensa de Estados Unidos daba el nombre de Ada a su lenguaje de programación informática como forma de reconocer la contribución de una mujer pionera de la cibernética, que hace más de ciento cincuenta años trabajó en el primer ordenador de la historia, la Máquina Analítica diseñada por Charles Babbage.

Lenguaje de programación Ada | Por amor a la ciencia
Sello del lenguaje de programación Ada. Fuente: Kickin’ The Darkness.

Augusta Ada Byron, más tarde condesa de Lovelace y única hija legítima del poeta lord Byron, nació en Londres el 10 de diciembre de 1815. George Gordon Byron se había casado con Annabella Milbanke el 2 de enero de ese mismo año, quizá en un momento en el que quería normalizar su vida irregular, que escandalizaba a sus contemporáneos.

El famoso poeta tenía entonces veintisiete años y había heredado el título nobiliario a los diez, tras una infancia pobre y penosa en Escocia, abandonado por su padre y con el lastre de un pie deforme que le humillaba y que compensaba con unos modales exagerados.

A edad tan temprana e instalado en la casa señorial de Newstead Abbey, Byron se inició en la bebida, el sexo y todo tipo de excesos de la mano de la niñera May Gray, a lo que puso fin el abogado de la familia, John Hanson, que le encauzó en los estudios en Harrow y en el Trinity College, y se encargó de que tratasen adecuadamente el pie.

Ingresó en la Cámara de los Lores a los veintiún años y llevó una vida bohemia con deudas, romances con mujeres de todas las edades y estados y con algunos hombres, viajes por el Mediterráneo y escándalos, como su relación con su hermanastra Augusta Leigh, fruto de la cual se especulaba que era la hija de ésta, Medora. Por no mencionar sus escritos, que eran un cántico de rebeldía y publicaba el editor John Murray ensalzando unos ideales románticos que chocaban con la realidad inglesa de entonces.

Lord Byron | Por amor a la ciencia
Lord Byron. Fuente: Wikipedia.

A la madre de Ada le habían llamado «princesa del paralelogramo » por sus aficiones científicas. Había estudiado álgebra, geometría y astronomía, al igual que su madre, lady Noel, pues era señal de prestigio entre las clases nobles.

Separación definitiva

A los pocos meses de la boda, Byron volvió a su vida disoluta, entre otros motivos, por el difícil entendimiento que tenía con su esposa, a lo que se añadían ciertos problemas financieros. Cuando nació su hija Ada, once meses después de la boda, la relación de la pareja era muy mala. Al mes del nacimiento, Annabella abandonó a Byron y se llevó a su hija, entre rumores de que el poeta había vuelto con su hermanastra Augusta, con la que se decía que mantenía relaciones incentuosas.

Las esperanzas de Byron de arreglar su matrimonio se vieron cortadas de raíz, por lo que acabó por firmar la separación y se marchó de Inglaterra, adonde no volvería nunca. Vivió primero en Ginebra, formando parte del círculo intelectual de los Shelley, y tuvo otra hija en enero de 1817, Allegra, con Claire Clairmont.

[Su madre] quiso darle [a Ada] una educación para que fuera una mujer cultivada y encaminada hacia la ciencia; así esperaba alejarla en lo posible del mundo de las letras, en el que su padre era notorio

Mientras tanto Annabella se encargó de que el padre no volviera a ver a Ada y de eliminar de la vida de la niña el menor rastro de la presencia paterna. También quiso darle una educación para que fuera una mujer cultivada y encaminada hacia la ciencia; así esperaba alejarla en lo posible del mundo de las letras, en el que su padre era notorio. Byron era entonces repudiado, y no sólo por su esposa, sino por la sociedad inglesa.

Sin embargo, el poeta había aceptado a Ada con alegría desde su nacimiento, por lo que sufrió esta separación y el resto de su vida estuvo pendiente de la niña y preguntó por ella, aunque nunca consiguió volver a verla. Por eso la convirtió en uno de sus ideales inalcanzables y en musa de sus poemas, como en «Childe Harold’s Pilgrimage— III».

En «To Ada» escribe:

Es tu rostro como el de mi madre, mi hermosa niña
¡Ada!, ¿única hija de mi corazón?
Cuando vi por primera vez tus azules ojos jóvenes, sonrieron,
y después partimos no como ahora lo hacemos,
sino con una esperanza.

Despertando con un nuevo comienzo,
las aguas se elevan junto a mí; y en lo alto
los vientos alzan sus voces: me voy,
¿adónde? No lo sé; pero la hora llegará
cuando las playas, cada vez más lejanas de Albión,
dejen de afligir o alegrar mis ojos.

 

[…]

Una adolescente paralítica

Mientras tanto, Annabella, que tenía la costumbre de cambiar de casa con frecuencia, iba cambiando también de niñeras y profesores; especialmente celosa de los que pudieran tener influencia sobre su hija, en cuanto alguna hacía buenas migas con Ada, la sustituía por otra. La niña estudiaba latín y equitación. Cuando cumplió diez años, madre e hija recorrieron Europa durante dos años en coche de caballos. En Holanda, Alemania, Suiza, Francia e Italia fueron objeto de curiosidad en los círculos sociales, especialmente Ada, ajena al interés que despertaba, mientras su madre, mujer de gran fortuna, ejercía el papel de la viuda lady Byron, apellido que utilizará toda su vida.

Esta imaginativa matemática fue la única hija legítima del poeta romántico lord Byron, aunque la separaron de él a las pocas semanas de vida y nunca más volvería a verla. Ada también fue, siglo y medio antes de la gran revolución informática, la primera programadora de la historia.

Cuando regresaron a Inglaterra, Ada, con trece años, perdió la vista temporalmente, se quedó paralítica y sufría convulsiones, pero mantenía la mente despierta y dedicaba muchas horas a estudiar latín, lengua y fundamentos de ciencias, una tradición en las mujeres de su familia. También tocaba el arpa y hacía planetarios. Su madre, que se quejaba siempre de sus numerosas y al parecer imaginarias enfermedades, viajaba sin cesar por el país en busca de alivio en balnearios y centros con tratamientos de moda, un peregrinaje sanitario que ejercerá de por vida.

Ada fue una inválida toda su adolescencia, pero no se dejó abatir. El pastor protestante Francis Trench la describe a los dieciséis años como una joven muy inteligente de ojos grandes y expresivos y pelo oscuro y rizado como el de su padre. Aún llevaba muletas, estaba débil y tenía los nervios a flor de piel, pero quería ser matemática, y a eso se dedicaba con la ayuda de los ilustres profesores como William Frend, un antiguo y distinguido profesor de su madre, y luego de Augustus De Morgan, yerno del anterior. Su madre la acobardaba, expresándole el miedo de que aparecieran en ella los síntomas de las locuras paternas; con ello fomentaba la inseguridad de su hija y la dependencia de Ada hacia ella.

Presentación en la corte

A los diecisiete años Ada se libró de las muletas y empezó una nueva vida como las otras jóvenes de su edad. En mayo de 1833 fue presentada en la corte de Guillermo IV y la reina Adelaida en el palacio de Saint James. Fue un gran acontecimiento social al que acudieron las jóvenes de la nobleza de toda Europa, y estuvieron presentes con sus hijas y sobrinas los grandes políticos del momento, como el duque de Wellington, Tayllerand y el ministro británico del Interior —luego primer ministro— y primo de lady Byron, lord Melbourne.

El 5 de junio de ese año Ada conoció a un científico e inventor que tendrá una importancia decisiva en su futuro, Charles Babbage. Era un matemático viudo algo mayor que su madre, interesante y divertido en sociedad, que gozaba de gran reconocimiento por su altura intelectual y por sus inventos, aunque éstos le habían llevado a un callejón sin salida y sus patrocinadores le habían abandonado. Ada, más que su madre, quedó enseguida fascinada por él y sus trabajos cuando Babbage les hizo una demostración de su Máquina Diferencial, un ingenio capaz de realizar operaciones matemáticas ideado para liberar a profesionales y científicos de los prolijos e interminables cálculos rutinarios.

Charles Babbage | Por amor a la ciencia
Charles Babbage. Fuente: biografieonline.it.

El impresor sueco George Scheutz había leído un artículo sobre la Máquina Diferencial y, tomándola como modelo, construyó pocos años después una Máquina Tabuladora, más pequeña, a la que puso su nombre, que podía imprimir tablas y le sería de gran utilidad.

Bailes, máquinas y boda

Ada disfrutaba de su primera libertad. Observadora, optimista y con sentido del humor, pretendía también hacerse querer —como decía a su madre, «ser popular»—, lo que no parece que lograra al principio. A uno de los amigos íntimos de su padre, sir John Hobhouse, al que conoció por entonces, Ada le pareció una joven flaca y de pocos encantos, aunque tenía la boca de su padre.

Entre bailes, cenas y carreras de caballos, su tutor y profesor Augustus De Morgan, primer profesor de matemáticas de la Universidad de Londres, le presentó a la gran astrónoma y matemática Mary Somerville, que había publicado un trabajo sobre la mecánica celeste. Mary era una celebridad que entonces rondaba los cincuenta años y vivía en un círculo de intelectuales y científicos rodeada de gran reconocimiento, pese a su sencillez personal. Las obras de Mary, que acababa de publicar Conexiones de las ciencias físicas, se estudiaban en la Universidad de Cambridge, y le consultaban dudas sobre los fenómenos astronómicos que sucedían o se esperaban, como las lluvias de meteoritos que se produjeron por entonces. Mary animó a Ada a estudiar en serio y se convirtió en un modelo para ella. La relación de Ada con Mary y su hijo Moronzow Greig durará muchos años.

Por estas fechas, lady Byron llevó a su hija de viaje para que conociera Inglaterra. Ada descubrió las primeras máquinas y la naciente industria que estaba surgiendo en el país, la cuna del maquinismo. Vio cómo esos ingenios fabricaban los tejidos y los lazos con que se vestía, entre otras muchas cosas. El hecho de ver mundo y la posibilidad de escuchar las conferencias científicas hicieron de ella lo que una cronista de la época llama «una joven singular». Annabella contrató, para que preparase a su hija en la ciencia, al profesor escocés Craig, experto en el método pedagógico de Emmanuel de Fellenberg, uno de los más vanguardistas de Europa.

En 1835 apareció lord King en la vida de Ada. Mary Somerville le presentó a este descendiente del famoso lord Canciller y del filósofo Locke, compañero de universidad de su hijo Moronzow. King, que era once años mayor que Ada y había viajado por el mundo como secretario del alto comisionado lord Nugent, se enamoró de Ada. La boda se celebró en julio de ese año, acontecimiento social que registraron las crónicas de revistas como El Mundo de la Moda: «“La única hija de mi casa y de mi corazón”, como la llamó lord Byron, se ha casado con lord King y pasarán la luna de miel en sus propiedades de Oackham Park». La pareja vivirá entre esta residencia de campo y su casa de Londres, en el 10 de Saint James Square.

[…]

Nacen sus hijos

En mayo de 1836 dio a luz en Londres a su primer hijo, Byron, un niño despierto, futuro vizconde de Ockham; tres meses después del parto Ada vuelve a Oackham Park, donde tiene como vecinos a los duques de Kent y su hija, la princesa y futura reina Victoria. Al año siguiente nació Anna Isabella, y el 2 de julio de 1839 vino al mundo el tercer y último hijo de los Lovelace, Ralph Gordon. Ada quiso a todos sus hijos, pero tendrá especial predilección por el mayor.

Por entonces Ada tuvo ocasión de invitar a su casa a Hobhouse y preguntarle por ese gran desconocido que era para ella su padre. Quería saber si la fama de maldad y el gran atractivo personal de lord Byron le hacían justicia.

A los pocos meses del nacimiento de su último hijo, Ada pidió a Babbage que le buscara un buen profesor de matemáticas para mejorar su nivel en «la ciencia de los números»; así podría colaborar con él en su último invento, en el que nadie parecía interesado. Ella entendía que las máquinas de Babbage abrían un camino claro para comprender mejor el universo y sus leyes.

Entonces Charles Babbage trabajaba en la Máquina Analítica, cuyo diseño terminará en 1835. Para Ada aquello era todo un reto, una «máquina inteligente» a la que había que darle las leyes generales que ella aprendería y luego ejecutaría. La preparación en matemáticas que había alcanzado ya le permite entenderla en gran parte y entusiasmarse con lo que podía ofrecer. Ella había visto con admiración los prodigios que otras máquinas estaban haciendo en Inglaterra. Lady Byron propuso hacerse cargo de alguno de sus nietos con objeto de dejar a su hija más tiempo libre para que se dedicase al trabajo científico.

Babbage y la ciencia de los números

El primer instrumento ideado para contar debieron de ser los dedos de la mano; de ahí que contemos de diez en diez y tengamos preferencia por un sistema decimal o digital, aunque también usemos el sexagesimal heredado de los caldeos, por ejemplo, para medir las horas, los minutos y los segundos.

Siguieron como instrumentos de contar el ábaco y, siglos después, las reglas de cálculo, que permitían hacer multiplicaciones y raíces cuadradas, que eran utilizadas no sólo por contables y comerciantes, sino también por científicos como los astrónomos e ingenieros.

El barón escocés John Napier había inventado para realizar operaciones la regla de cálculo, al observar el parecido que existía entre sumar números y multiplicarlos: en realidad, multiplicar un número era sumar el mismo número tantas veces como indicaba el otro, el multiplicador. Sobre esta base se construyeron los logaritmos; un número con un exponente era igual a multiplicar dicho número por sí mismo tantas veces como unidades tiene el exponente (22 = 2 x 2 = 4; 23 = 2 x 2 x 2 = 8; 24 = 16, etc.).

También existía desde el siglo XVII otra máquina que servía sólo para sumar y restar, la pascalina, invento que hizo el filósofo Blaise Pascal para ayudar a su padre, recaudador de impuestos. El filósofo alemán Leibniz, precursor de la matemática moderna, creó un sistema de numeración de base binaria —sólo con 0 y 1—, pensando en que quizá podría llegarse a un lenguaje universal libre de errores, algo que sería posible traduciendo cualquier razonamiento a un simple cálculo, lo cual eliminaría interpretaciones susceptibles de equívoco. Esto implicaba reducir todo a dos cosas: lo verdadero y lo falso, lo primero representado por un 1 y lo segundo, por un 0. Así aparece el lenguaje binario que emplearán los ordenadores.

Con un paso más, las verdades del universo estarían más cerca si se empleaban adecuadamente las sentencias verdaderas y falsas, lo que se podría conseguir con una máquina que separase las unas de las otras.

El antecedente del ordenador

A principios del siglo XIX, época del nacimiento del maquinismo, Charles Babbage inventó la Máquina Diferencial, primero, y la Máquina Analítica después.

Máquina diferencial de Babbage | Por amor a la ciencia
Máquina diferencial de Babbage. Fuente: University of North Carolina Wilmington.

Babbage era un avanzado de su época y había llevado a Inglaterra las sociedades profesionales que ya existían en el continente, contribuyendo a poner en marcha la Sociedad Astronómica de Londres, la Sociedad Estadística Británica y la Asociación para el Avance de las Ciencias, ante las suspicacias y celos de la famosa Royal Society.

Uno de sus propósitos era ayudar a los científicos, que utilizaban tablas llenas de errores. Su máquina, con la que esperaba eliminar el error humano, utilizaba el método diferencial, que se basaba en reducir las operaciones a sumas. Presentó su proyecto ante la Royal Astronomical Society en 1821 y creó un prototipo que podía trabajar con seis dígitos. Cuando consiguió la subvención estatal y se puso a construir la Máquina Diferencial, Babbage tropezó con algo insalvable: era demasiado compleja para la tecnología de entonces, tenía muchas vibraciones y surgían problemas de fricción con las ruedas y engranajes que utilizaba. Para grandes cálculos se necesitaba una máquina de gran tamaño. Gastó mucho dinero sin resultados y perdió la credibilidad; incluso empezó a ser visto como un visionario. Entonces ideó otro ingenio aún más ambicioso, la Máquina Analítica. Esta máquina podría realizar cualquier cálculo, no sólo los referentes a tablas logarítmicas, sino que tendría la capacidad de encerrar instrucciones programadas y optaría por seguir unas u otras según el resultado de las operaciones anteriores. La máquina encerraba en sí la esencia del actual ordenador.

Tarjeta perforada de un telar de Jacquard | Por amor a la ciencia
Tarjeta perforada de un telar de Jacquard. Fuente: toursphere.com.

Babbage había visto en Francia, en la fábrica de tejidos de Jacquard, unas tarjetas perforadas que servían para indicar a la máquina qué tipo de cosido tenía que hacer; tenía forma de cinta perforada y era la que se utilizaba también para interpretar las melodías en las pianolas. Las tarjetas se dividían en campos y columnas y, según el lugar donde estuviera el agujero, significaba un determinado número o letra. Esto le pareció la solución perfecta para introducir en su máquina los datos e instrucciones necesarios. La máquina tenía un cilindro para discernir qué tipo de operación debía realizarse, una memoria donde se almacenarían los números para los cálculos y una impresora que sacaría al final los resultados de forma automática.

Ada imagina la máquina del futuro

La coronación de la reina Victoria se celebró en 1838 y trajo nuevos nombramientos para la nobleza. Lord King obtuvo el título de conde de Lovelace y, en agosto de 1840, el de lord Lugarteniente de Surrey. Por esas fechas, Babbage fue invitado a Turín para presentar su Máquina Analítica, aunque al final será el ingeniero militar italiano y futuro ministro Luigi Menabrea quien la presentará en una conferencia en esta ciudad italiana.

Su disertación, Tratado sobre el cálculo diferencial e integral, de alto nivel científico y técnico, se publicó en francés en 1842, en la Bibliothèque Universelle de Génève. Ada se propuso por su cuenta traducirlo al inglés. Cuando hubo hecho el trabajo, se lo enseñó a Babbage y éste la animó a que añadiera sus propias aportaciones personales.

Ada creyó que en el futuro la máquina podría incluso componer música y hacer gráficos.

Así es como Ada describió las diferencias que tenía el invento de Babbage respecto a la pascalina; ésta era comparable a una calculadora que no iba más allá de las operaciones aritméticas, mientras que la Máquina Analítica se parecía al actual ordenador, pues podía almacenar datos y un programa o secuencia de operaciones e instrucciones.

Ada expresó con precisión y visión de futuro las nuevas tareas que podría realizar y plasmó sus propias ideas, incluido el trabajo algebraico, aunque Babbage decidió correr con la parte relativa a los famosos «números de Bernouilli». Ada creyó que en el futuro la máquina podría incluso componer música y hacer gráficos.

Los grandes cálculos matemáticos contenían muchas repeticiones en una misma secuencia de instrucciones, y la máquina podría simplificarlas utilizando las tarjetas para seguir una determinada rutina si se cumplían ciertas condiciones. La preparación de las órdenes de trabajo para la máquina es lo que se conoce como «programación». El trabajo de Ada acabó triplicando la extensión de lo que fue en sí la exposición de Menabrea. El propio Babbage afirmó que con «las dos memorias se tiene una demostración completa de que el conjunto de operaciones y desarrollos pueden ser ejecutados por la Máquina Analítica». Insistió Ada en que el ingenio no pretendía crear nada original, sino sencillamente ejecutar lo que se le ordenase.

«Puede seguir un análisis pero carece de capacidad para anticipar relación o verdad analítica alguna. Su papel concreto es ayudarnos a disponer de aquello con lo que ya estamos familiarizados.» El trabajo de Ada se firmó con sus iniciales AAL, para evitar los prejuicios de quienes rechazarían el trabajo de una mujer, y se publicó en 1843 con una tirada de 250 ejemplares que se repartieron entre los científicos e intelectuales.

Entre la exaltación y el fatalismo

Ada era una apasionada de la máquina y no se detuvo aquí; convenció a su marido de su trascendencia y de que, además, podía ser un buen negocio. Podrían invertir un dinero en su construcción, mientras que Ada trabajaría en ella bajo la supervisión de Babbage.

Con el tiempo, lady Lovelace empezó a mostrar un cierto tono de arrogancia hacia Babbage y se daba una importancia que no poseía, puesto que el padre del invento era él, y ella, su ayudante, aunque fuera una colaboradora llena de entusiasmo e imaginación y a la que no se podía negar su papel de impulsora. Tal exaltación y el hecho de que incluso hiciese algunas correcciones y críticas a su maestro, que soportaba pacíficamente la pedantería de su colaboradora, se atribuyeron a la influencia de las drogas y el licor que los médicos le prescribían.

Junto con las sangrías mediante sanguijuelas, estos cócteles estuvieron siempre presentes en su vida, para paliar unas veces la gastritis y otras el asma o los confusos padecimientos que iba teniendo. En aquel siglo, el alcohol era incluso recomendado por las publicaciones populares.

 

Por otra parte, el opio no era ajeno a estos estados de exaltación. Sir John Hobhouse la describió por entonces como una dama un tanto «fantástica» y afectada, aunque de trato amable y conversación no carente de interés. Con el tiempo Ada llegó a sobreestimar sus dotes científicas y, con esta presunción, hablaba de sí misma sin que nadie le desmintiera.

Anímicamente, pasaba de períodos de euforia y optimismo a otros de fatalismo, muestra de su personalidad inestable. Esta exaltación no era ajena tampoco a su familia, pues el propio lord Byron la tuvo, y se podría pensar en cierta herencia. Ada alardeaba también de trabajar en nombre de Dios, la verdad y los grandes ideales, antes que por su propia fama y culto personal, alarde que hacía también su madre. Lord y lady Lovelace, al igual que lady Byron, eran unitarios, una rama del protestantismo que negaba la existencia de la Santísima Trinidad.

Coqueteos y drogas

Lord Lovelace admiraba mucho a su esposa, la elogiaba de veras y la consideraba casi un genio, lo cual favorecía la excesiva valora- ción que ella tenía de sus propias dotes. Ada aprovechaba este prestigio para dejarse cortejar en sociedad y flirtear con caballeros como el amigo de la familia Frederick Knight, al que siguió Phillips Kay.

Con el propósito de apoyar el trabajo de su hija, lady Byron seguía con los tratamientos de moda para la salud, como era entonces el mesmerismo, y, quejosa siempre de su salud, predecía reiteradamente su inminente muerte. Para ayudar a Ada en sus quehaceres y librarla de responsabilidades busca a un tutor para sus nietos; así su hija podría trabajar más horas en la máquina. También el señor King empezó a ocuparse más de sus hijos con este fin. El tutor elegido fue el extravagante y piadoso unitario William Carpenter, en quien depositaron su confianza; más tarde les traicionará contando la vida y milagros de los Lovelace. Por otra parte, lord Lovelace también escribía sus propias obras: en 1847 publicó Teoría sobre la población y, en colaboración con Ada, sacó a la luz algunos artículos sobre la nueva agricultura.

Ada pudo enfrascarse en su trabajo, pero, como siempre, era inconstante y se resentía de su salud; incluso creía que sus males se debían a un exceso de matemáticas. Por entonces se puso de moda la morfina, y el doctor Locock se la prescribió para su «congestión de cabeza» dos o tres veces por semana, además del láudano. Respecto al opio que había estado tomando durante mucho tiempo combinado con alcohol y otros estimulantes, Ada observó que tenía un efecto temible, aunque en tiempos pasados elogiaba sus efectos. «El opio me pone filosófica y libera mis miedos y ansiedades —decía antes—. Parece liberar todo mi cuerpo.» A partir de entonces pasaba a veces de la exaltación a la depresión en poco tiempo y parecía próxima al desvarío.

En febrero de 1844 tuvo unos extraños síntomas, «como si tensasen sus cuerdas nerviosas». Su médico afirmaba que lo que tenía era una enfermedad tan particular que no carecía de nombre y que sólo padecía ella. Tenía convulsiones que la dejaban agotada; a su amigo Moronzow le dijo que se iba a ofrecer a la ciencia para que la estudiasen y que esperaba que un día sus fenómenos cerebrales se pudieran traducir a leyes y ecuaciones matemáticas y se transcribieran en fórmulas las acciones de sus moléculas, al igual que Newton hizo con las leyes de la gravedad.

Ada se volvió un tanto visionaria; en otra visita que les hizo Hobhouse éste quedó asombrado de sus afirmaciones fantásticas y sus manifestaciones ultrarreligiosas. También observó la excelente unión que mantenían ella y su esposo.

[…]

 

Durante los últimos meses Ada sufrió fuertes dolores y malestar. Tenía hemorragias y le diagnosticaron un cáncer de útero.

Vinieron sus hijos e incluso lady Byron decidió acabar con las hostilidades. A Ada lo que más le asustaba era que la enterrasen viva, por lo que tomó medidas para que esto no le ocurriera. Como una de sus últimas voluntades, comunicó que quería que la enterrasen junto a su padre. También quiso ver a Charles Dickens, por el que sentía una gran admiración aunque apenas se habían tratado. Dickens era una celebridad, además de un hombre de gran atractivo personal, y cuando se enteró de este deseo fue a visitar a Ada, que le manifestó su respeto y le señaló la coincidencia entre sus ideas sobre el futuro.

El 27 de noviembre de 1852 Ada murió con sólo treinta y seis años, exactamente a la misma edad que su padre. Lady Byron, tras la desaparición de su hija, mostró una vez más su tiranía y falta de respeto con el legado de Ada; falleció en 1860, después de impedir a Babbage que publicase unas memorias de su hija. Dos años después murió el hijo mayor de los Lovelace, Byron, también con treinta y seis años, como su madre y su abuelo, lord Byron. Lovelace volvió a contraer matrimonio y vivió casi hasta los noventa años.

Conclusión

Esta imaginativa matemática fue la única hija legítima del poeta romántico lord Byron, aunque la separaron de él a las pocas semanas de vida y nunca más volvería a verla. Ada también fue, siglo y medio antes de la gran revolución informática, la primera programadora de la historia. Educada por tutores e ilustres profesores de matemáticas, como William Frend, Augustus De Morgan y el propio Babbage, su obra principal fue la traducción de Nociones sobre la Máquina Analítica de Charles Babbage, trabajo publicado en francés por Luigi Federico Menabrea, y especialmente la serie de anotaciones personales en las que describió la máquina y cómo podía realizarse la programación.

Su mente lógica le permitió tener una excelente visión de futuro, trabajando como colaboradora del gran científico e inventor Charles Babbage, que había diseñado el que se considera el primer ordenador. Ambos representaban la avanzadilla de la era cibernética, en la que otros matemáticos ya habían dado algunos primeros pasos, como Leibniz, que propuso un sistema de base binaria, igual al lenguaje de ceros y unos que hoy utilizan los ordenadores.

Ada Lovelace | Por amor a la ciencia
Retrato de Ada Lovelace. Fuente: Wikipedia.

Ada fue una mujer inmadura y dominada por su autoritaria madre, lady Byron, de la que apenas fue capaz de ver sus contradicciones y manipulaciones. A esto se añadía un temperamento poco controlado y con grandes fluctuaciones de ánimo. Sus manías y su narcisismo parece que se debieron tanto a las drogas y al alcohol que le recetaban los médicos como a su perfil de protagonista nata, un mecanismo para compensar la anulación de la personalidad causada por el control materno. También sufrió frecuentes enfermedades más o menos graves, incluso incapacitantes.

Sin embargo, supo comprender, en los albores del maquinismo que surgía en Inglaterra, lo que las máquinas podrían hacer por el hombre imitando en cierto modo sus funciones mentales, así como intuir los principios de la futura programación de los ordenadores. Observó la relación entre los procesos abstractos de la mente y las operaciones, y pensó en el desarrollo de un lenguaje nuevo de grandes posibilidades para la humanidad.

Babbage no llegó nunca a hacer realidad su Máquina Analítica, pero en el doscientos aniversario de su nacimiento, en 1991, el Museo Nacional de Ciencia y Tecnología de Londres construyó la Máquina Diferencial con los diseños de su creador. Sólo encontraron algún pequeño error fácil de corregir.

En 1855 Babbage obtuvo la Medalla de Oro de Francia y al año siguiente el Observatorio Astronómico de Albany, Nueva York, compró su diseño para servirse de ella en sus trabajos astronómicos. Lo mismo hizo en este sentido el Departamento General de Registros londinense para sus cálculos.

Las hijas y nietas de Ada siguieron la afición por los caballos de su progenitora, pero sacaron más partido de ella destacando como campeonas de equitación.

Tras la «máquina de Turing», una forma de razonar, los ordenadores emprendieron una carrera vertiginosa, y en la actualidad, con sus cálculos matemáticos, permiten incluso anticipar cuál será el resultado de una operación quirúrgica o la evolución de un tumor cancerígeno, lo que hará posible terapias más eficaces.

El recuerdo de Ada ha quedado para la historia de algunas formas. El lenguaje de programación Ada popularizó el nombre de la joven matemática inglesa; era un lenguaje para programas militares, industriales e incluso de uso civil. Antes, el escritor y político inglés Disraeli convirtió a Ada en la heroína de su novela Venecia, y en España también se puso su nombre al Centro Politécnico Superior de Zaragoza.

En cuanto a lord Byron, ciento cuarenta y cinco años después de su muerte, en 1969, los británicos perdonaron sus veleidades y pusieron una lápida que le recuerda en la abadía de Westminster, junto a los hombres ilustres.

Ada reposa junto a él, como fue su voluntad, en Nottinghamshire.

A ella le dedicó estos versos:

¡Mi hija! Con tu nombre esta canción comenzó.
¡Mi hija! Con tu nombre así terminará…
Aunque mi rostro tú nunca contemplarías
mi voz se mezcla contigo en futuras visiones…

—————————————————

María José Casado es periodista especializada en temas de divulgación científica. Subdirectora de la revista Muy Interesante, lleva varios años publicando artículos y dando conferencias sobre las mujeres silenciadas en el campo de la ciencia destacando tanto su esfuerzo personal como las dificultades para prosperar en su trabajo científicos. Su libro Las damas del laboratorio, del que se han extraído los fragmentos precedentes, está publicado por la editorial Debate (más información).

También en Por amor a la ciencia:

Rosalind Franklin, descubridora del ADN (que incluye asimismo extractos de otro capítulo de Las damas del laboratorio)

Los innovadores: Las mujeres en la era digital

En su libro Los innovadores, donde Walter Isaacson nos descubre la historia de las personas responsables de la creación de dos de las tecnologías que conforman de manera más fundamental nuestro mundo actual, el ordenador e internet, Isaacson dedica una especial atención a algunas de las mujeres pioneras, quienes, con Ada Lovelace a la cabeza, no han tenido en las historias tradicionales todo el protagonismo que merecen.

Transcripción

Las mujeres tienen un papel muy importante en la revolución digital, pero creo que se las ha dejado un poco fuera de la historia.

La cosa empieza con Ada Lovelace, quien, trabajando con Charles Babbage, se da cuenta de que su máquina de calcular, que opera con números, puede hacer muchas más cosas: puede hacer música, procesamiento de textos o, como ella decía, tejer hermosos patrones. Cualquier cosa que se pudiese expresar mediante símbolos.

A muchas de las mujeres de la revolución digital les interesaba el software, las matemáticas. Durante la revolución digital, es habitual que las mujeres estén a cargo de la programación. Una de mis preferidas es Grace Hopper. Hopper trabajó en Harvard con Howard Aiken, el creador del Mark I. Contribuyó a programar esa máquina. Y después pasó al equipo que había creado el ENIAC, que estaba trabajando en un ordenador comercial llamado UNIVAC.

Grace Hopper | Por amor a la ciencia
Grace Hopper, en el documental The Queen of Code

Grace Hopper, junto con un grupo de mujeres trabajando en equipo, compartiendo casi con una mentalidad propia del software libre, crearon COBOL, uno de los primeros lenguajes de programación para ordenadores empresariales.

Un comentario personal: llegué al mundo de Ada Lovelace y de las mujeres en informática a través de mi hija. Estaba en secundaria y le encantaban las matemáticas y la informática. En las solicitudes para entrar en la universidad escribió sobre Ada Lovelace, y sobre Grace Hopper. Y ahora su trabajo consiste en escribir sobre la tecnología y los ordenadores. Fue a través de sus ojos como accedí al mundo de las mujeres y los ordenadores.

Más Walter Isaacson:

Los innovadores: Cinco lecciones de la revolución digital | Por amor a la ciencia

Los innovadores: Los héroes olvidados de la era digital | Por amor a la ciencia

Los innovadores, de Walter Isaacson | Biblioteca de Por amor a la ciencia

Steve Jobs, la biografía de Walter Isaacson | Biblioteca de Por amor a la ciencia

Einstein, la biografía de Walter Isaacson | Biblioteca de Por amor a la ciencia

Walter Isaacson: “Es importante que no tengamos miedo a la tecnología” (El País, 26 de octubre de 2014)

El mito de que la informática es ‘cosa de chicos’ (ICON, 27 de octubre de 2014)

La catedral de Turing: Los verdaderos padres de la computación

(Esta entrevista con George Dyson, historiador de la tecnología y autor de La catedral de Turing, se publicó originalmente en The Observer el 26 de febrero de 2012.)

Hace tiempo, una «computadora» era un ser humano, normalmente femenino, que llevaba a cabo los cálculos que le asignaban hombres trajeados. Entonces, en los años cuarenta del siglo pasado, algo sucedió: las computadoras pasaron a ser máquinas electrónicas. Este cambio tuvo consecuencias asombrosas: en última instancia, dio lugar a una tecnología que llegó a formar parte indisociable de nuestras vidas a finales del siglo XX y principios del XXI, y que ahora es indispensable. Si los miles de millones de ordenadores en los que se sustentan nuestros sistemas de apoyo industrializados (la mayoría de los cuales pasan inadvertidos) dejasen súbitamente de funcionar, nuestras sociedades tardarían muy poco en paralizarse por completo.

Por ello, las cuestiones sobre la procedencia de esta fuerza prometeica son fascinantes, tan interesentes a su manera como los orígenes de la Revolución Industrial. Y, como sucede con la mayoría de estas cosas, disponemos de un mito de creación, que parte de Alan Turing y su idea de «una única máquina capaz de computar cualquier secuencia computable» para a continuación bifurcarse en dos vertientes. Una es la británica, que pasa por la computadora «Colossus» construida en Bletchley Park por Tommy Flowers, colega de Turing durante la guerra, para permitir descifrar los códigos Enigma alemanes. La otra versión es estadounidense, arranca con la construcción del ENIAC en la Universidad de Pennsylvania en 1943 y pasa por la industrialización de esta tecnología a través de compañías como Univac e IBM, que construyeron los enormes ordenadores mainframe que configuraron las industrias de mediados del siglo XX. Ambas versiones convergen posteriormente con la entrada en escena de Xerox, Apple, Intel y Microsoft, y acaban conduciendo a un mundo en el que encontramos un ordenador dentro de prácticamente cualquier objeto.

george_dyson_y_portada

En su notable libro La catedral de Turing, el historiador de la ciencia George Dyson se propone darle un lavado de cara revisionista a este mito de creación. Dyson centra su atención en un reducido grupo de matemáticos e ingenieros que, bajo la dirección de John von Neumann, trabajaron en el desarrollo de la bomba de hidrógeno en el Institute for Advanced Study (IAS) situado en Princeton, Nueva Jersey (pero no en la Universidad de Princeton). Este grupo no solo construyó una de las primeras computadoras que plasmaba la visión de Turing de una máquina universal sino que –lo que es más importante– definió los principios arquitectónicos de un «ordenador de programa almacenado» de propósito general en los que se basan todos los ordenadores posteriores. El argumento de Dyson, resumido torpemente, afirma que debería ser la máquina del IAS, y no el ENIAC o el Colossus que la precedieron, la que tuviese la consideración de fuente y origen del mundo moderno.

Parece técnico –y lo es– pero el relato que nos ofrece Dyson de cómo se concibió y se construyó la máquina de Von Neumann es un hermoso ejemplo de narración tecnológica (tan bueno, a su manera, como The Soul of a New Machine, el libro de Tracy Kidder sobre la creación de una minicomputadora de Data General, o Insanely Great, de Steven Levy, que cuenta la historia de cómo vio la luz el Macintosh de Apple). Pero, como Dyson es una especie de erudito encubierto, La catedral de Turing es mucho más que una crónica del progreso ingenieril: incluye fascinantes digresiones en la historia y la física de las armas nucleares, los cimientos de la lógica matemática, las ideas matemáticas de Hobbes y Leibniz, la historia de la predicción meteorológica, los trabajos pioneros de Nils Barricelli sobre vida artificial y muchísimas otras cosas interesantes.

Las circunstancias de su nacimiento y su temperamento le proporcionaron a Dyson una posición de privilegio desde la que abordar este proyecto. Su padre, Freeman, es un físico teórico de renombre; su madre, Verena Huber-Dyson, también es matemática; y su hermana, Esther, es una destacada inversora y pensadora tecnológica. De niño, George vivió en el IAS, porque su padre ocupaba uno de los preciados puestos de catedrático en la institución. Huyó de ese intenso entorno a los 16 años y acabó en la Columbia Británica construyendo káyaks empleando un diseño tradicional. En los años transcurridos desde entonces, Dyson ha oscilado entre la fabricación de canoas y el estudio de la historia de la tecnología. Su libro de 1997, Darwing Among the Machines, es una de las reflexiones más profundas que he leído sobre lo que implica disponer de una capacidad de computación distribuida y conectada en red.

La catedral de Turing es un digno sucesor de ese libro previo. Tras terminar de leerlo, le escribí a Dyson para explorar algunas de las ideas que me habían llamado la atención. Esta es una transcripción editada de nuestra conversación por vía electrónica.

John von Neumann junto a la máquina del IAS. Fuente: IAS.
John von Neumann junto a la máquina del IAS. Fuente: IAS.

John Naughton: ¿Por qué se embarcó en el proyecto del libro? Es una tarea descomunal.

George Dyson: Cuando empecé, no tenía ni idea del trabajo que supondría, pero pensaba que se subestimaba el papel del trabajo ingenieril que se llevó a cabo en el IAS. Y, aunque utilizaba ordenadores, no los entendía del todo, y la única manera de comprender algo realmente pasa por entender sus comienzos.

J. N. : Pero el trabajo ingenieril no es lo único minusvalorado. Tras terminar el libro, volví a repasar las historias «populares» aceptadas de la computación digital, y parece como si la máquina del IAS prácticamente se hubiese borrado de ellas. En la mayoría de esas historias, la narración comienza con el ENIAC en Pennsylvania y el Colossus que se construyó en Bletchley Park. Pero estas no eran computadoras de programa almacenado, y por consiguiente no eran realmente los antepasados de los ordenadores que utilizamos actualmente, mientras que la máquina del IAS sí que lo era. ¿Estaba usted intentando rescatar la arquitectura de Von Neumann del olvido al que había sido relegada por la historia dominante?

G. D. : La respuesta a su pregunta tiene varios niveles. En primer lugar, el libro no trata sobre la «primera» computadora. Es un intento de contar la historia de lo que sucedió realmente, no de determinar quién fue el «primero» (a excepción de Turing, en el sentido matemático).

En segundo lugar, hay un detalle importante en la historia: el grupo de Von Neumann diseñó la máquina del IAS, y desarrolló el código que se ejecutaría en ella, pero sufrió un retraso de dos años debido a problemas con el hardware. Durante ese periodo, sometidos a una gran presión para que empezasen a ejecutar cálculos relacionados con la bomba, se dieron cuenta de que podían reconfigurar el ENIAC para convertirlo en una verdadera máquina de programa almacenado, capaz de ejecutar el código que habían escrito para la máquina del IAS. Y esto funcionó realmente bien (tanto que, como el proverbial viajero que retrocede en el tiempo y mata a su abuela, puede que con ello hiciesen que disminuyese su prominencia como pioneros. Hay gente que dice: «Pero eso ya lo había hecho antes el ENIAC».

El tercer nivel, como menciono en varios lugares, consiste en que, durante mucho tiempo, el IAS evitó activamente llamar la atención sobre lo que había sucedido allí. En parte se debió a una aversión hacia la ingeniería, y en parte a una renuencia a verse envueltos en la disputa alrededor de las patentes del ENIAC (por aquel entonces, el caso más importante en la historia legal estadounidense). Personalmente, creo que también fue en parte consecuencia del trabajo sobre la bomba de hidrógeno. Oppenheimar fue, en muchos sentidos, un mártir voluntario ante la percepción pública de que se había opuesto al desarrollo de la bomba. No encajaba con esta imagen pública llamar la atención sobre el hecho de que buena parte del trabajo numérico esencial que condujo a la bomba de hidrógeno había tenido lugar, bajo su dirección, en el IAS.

J. N. : ¿Cuánto tiempo le llevó escribir el libro?

G. D. : Hace ahora exactamente diez años [esta entrevista se publicó en febrero de 2012] que decidí ir a Princeton y empezar a desenterrar material, y (gracias a Charles Simonyi) me invitaron a pasar un año en el IAS. Me encanta investigar, disfruto editando, pero me cuesta mucho obligarme a escribir, que es lo que se necesita entre ambas fases. No puedo escribir en mi taller de fabricación de canoas, porque tengo muchas distracciones, y tampoco en casa, porque no tengo ninguna. Así que acabo yendo de un sitio al otro, y con el tiempo algo va tomando forma. A partir de ahí todo es más fácil, con unas 30 reescrituras antes de que se pueda publicar. Un dato pone las cosas en perspectiva: el grupo de Bigelow-Von Neumann concibió, diseñó, construyó su ordenador y comenzó a resolver problemas importantes con él en menos tiempo del que yo he tardado en escribir sobre ello.

J. N. : ¿Cuál es el origen del título?

G. D. : Se lo debo a las ideas de Alan Turing (tal y como las expresó en 1950) sobre cómo deberíamos entender la verdadera inteligencia artificial: «Al intentar construir tales máquinas no estaríamos usurpando irreverentemente Su poder para crear almas más de lo que lo hacemos en la procreación de los hijos; más bien somos, en todo caso, instrumentos de Su voluntad al proporcionar mansiones para las almas que Él crea».

En 2005 visité la sede de Google y lo que vi me desconcertó por completo. Un ingeniero me susurró: «No estamos escaneando todos esos libros para que los lean las personas, sino para que lo haga la inteligencia artificial». En ese momento, pensé: «Esta no es la mansión de Turing, sino la catedral de Turing». Y ese acabó siendo el título del libro.

Alan Turing
Alan Turing. Fuente: El Huffington Post

J. N. : Escribe con profundo conocimiento sobre John von Neumann. ¿Significa eso que lo conoció bien cuando usted era joven? ¿O es simplemente el reflejo de hasta dónde llegó su investigación sobre él y sus contemporáneos?

G. D. : Este conocimiento íntimo es resultado de que la familia de Von Neumann me permitiese acceder a dos décadas (1937-1957) de correspondencia privada entre Johnny y Klári von Neumann (de soltera, Dán): montones de cartas manuscritas, que contenían detalles tanto técnicos como íntimos de todo lo que sucedía es sus extraordinarias vidas en aquella época extraordinaria. La fuerza que tienen las cartas manuscritas es asombrosa (debo agradecerles a Gabriella y Béla Bollabas, de Cambridge, su meticulosa traducción de las partes escritas en húngaro; las cartas pasan continuamente del inglés al húngaro en función de los asuntos que traten).

En 1955 –cuando yo tenía solo dos años– Von Neumann prácticamente había abandonado el IAS para trabajar en Washington como comisionado de la energía atómica, por lo que no fue una presencia en mi infancia. Sin embargo, uno de mis primeros recuerdos es de una fiesta en casa de unos amigos, y de que me dejaron en una cuna en el dormitorio de los niños. Recuerdo estar de pie apoyado en los barrotes de la cuna, enfandado, sin poder escapar. Un hombre muy alegre y simpático entró en la habitación, me habló y me dio a probar su bebida. Quizá fuese Von Neumann, aunque probablemente no.

J. N. : El libro me hizo caer en la cuenta de algo que no había entendido correctamente hasta ahora: la íntima relación entre los requisitos impuestos por el Ejército y los orígenes de la computación. Esto es algo que supongo que la mayoría de la gente no sabe a día de hoy: creen que la computación comenzó con IBM, o quizá con Bill Gates. Pero su historia está impregnada de las complejas interrelaciones entre el esfuerzo bélico y la matemática aplicada.

G. D. : Es muy posible que el desarrollo de la mente humana se deba al desarrollo de estructuras de almacenamiento de comandos para las secuencias de movimientos necesarios para acertar con un animal (u otro humano) en movimiento, y que el lenguaje surgiese como una adaptación oportunista de esas estructuras de comando inactivas para otra finalidad. De manera que, sí, probablemente la poesía y la violencia estaban interrelacionadas desde el principio.

El epítome de esta interrelación es lo que sucedió en Los Álamos: si los científicos diseñaban las armas, podrían dedicar el resto del tiempo a hacer toda la ciencia pura que quisiesen, sin tener que dar explicaciones. La mayoría de los avances más importantes del siglo pasado, desde la computación a la comprensión de la genética, a proyectos que se originaron inicialmente en laboratorios militares como este.

J. N. : Otro tema recurrente tiene que ver con la famosa idea (equivocada) de WH Hardy sobre la «inutilidad» de la matemática pura. Su libro traza muy claramente la progresión desde Hilbert hasta la máquina del IAS, pasando por Gödel, Turing y Von Neumann. Supongo que, en aquella época, nadie podría haber imaginado que las discusiones sobre los cimientos de las matemáticas podrían tener alguna vez resultados prácticos.

G. D. : ¡Sí! Por ejemplo, resulta muy sorprendente que Turing, que fue poco menos que un marginado (salvo entre un pequeño grupo de colegas expertos en lógica) durante los dos años que pasó en Princeton, fuese votado como el segundo exalumno más influyente de la historia de la Universidad de Princeton (¡en un campo que se remonta hasta 1746!).

J. N. : Otra valiosa moraleja de la historia es la importancia de publicar en abierto. Toda la documentación de la máquina del IAS se hizo pública, lo que significaba que la máquina se podía clonar en algún otro lugar (como así sucedió en empresas privadas, como IBM, y en otros centros de investigación), mientras que quienes construyeron el ENIAC obtuvieron las pertinentes patentes, fundaron una compañía y, con el tiempo, acabaron enredados en batallas legales. Actualmente, la industria de los ordenadores está cada vez inmersa en el mismo tipo de guerra de patentes, por lo que es posible que debamos extraer alguna lección al respecto. ¿Existe alguna correlación entre la transparencia y la innovación?

G. D. : Así es. Y lo asombroso –cosa que horrorizaría a Abraham Flexner [padre intelectual del IAS]– es que las instituciones académicas son ahora quienes lideran la tendencia a restringir la utilización de los resultados de la investigación científica. Por supuesto, se argumenta que esto permitirá obtener mayor financiación para la ciencia, pero en mi opinión esos argumentos carecen de sentido. Volviendo de nuevo al acuerdo original entre Oppenheimer y el Ejército en Los Álamos: las armas serían secretas, pero la ciencia sería pública. Cuanto más nos distanciamos de ese tipo de acuerdo (ya sea con el Ejército o con la industria), más perdemos.

El sanctasanctórum del IAS es la sala Rosenwald de su biblioteca principal, que está climatizada y donde se conservan libros raros, incluidos manuscritos de valor incalculable y textos posteriores. En sus estanterías descansa, junto a las primeras ediciones de Newton y Euclides, la colección completa de los volúmenes de los Electronic Computer Project Interim Progress Reports. Y ahí es donde deben estar.

Fuente: «The True Fathers of Computing», entrevista de John Naughton a George Dyson (The Observer, 26 de febrero de 2012)

Primeras páginas del libro (pdf)

La catedral de Turing, de George Dyson | Biblioteca de Por amor a la ciencia

Los innovadores: Cinco lecciones de la revolución digital

[Traducción del artículo «Five Lessons From The Digital Revolution», publicado en Vanity Fair por Walter Isaacson, autor de Los innovadores. Los genios que inventaron el futuro]

Hoy en día se habla tanto de la innovación que el significado de la palabra se ha ido difuminando. Por eso, cuando me propuse escribir un libro sobre la revolución digital, decidí centrarme en varios ejemplos concretos de cómo tiene lugar la innovación en el mundo real. ¿Cómo llevaron a la práctica sus ideas los innovadores más imaginativos de nuestra época? ¿Por qué algunos tuvieron éxito y otros fracasaron? Aquí expongo cinco lecciones que extraje de mi investigación.

1. La conexión entre arte y ciencia

Cuando me embarqué en su biografía, Steve Jobs me dijo: «De niño, siempre me consideré una persona de letras, pero me gustaba la electrónica. Entonces leí algo […] sobre la importancia de las personas que podían ocupar el espacio de intersección entre las humanidades y las ciencias, y decidí que eso era lo que quería hacer.» Y eso hizo de él el innovador de mayor éxito de nuestra época.

Steve Jobs y Steve Wozniak
Steve Jobs y Steve Wozniak (Imagen: Celebrity Network)

La santa patrona de esta intersección entre arte y tecnología fue Ada King, condesa de Lovelace. Su padre fue el poeta Lord Byron, su madre una matemática aficionada, y Ada combinó ambas aspiraciones en lo que denominó «ciencia poética». En la década de 1830, se hizo amiga de Charles Babbage, que estaba desarrollando una calculadora denominada «máquina analítica». En un viaje por las Midlands británicas, Ada vio telares mecánicos que utilizaban tarjetas perforadas para producir hermosos patrones. Su padre, que era un ludita, había defendido a los seguidores de Ned Ludd, que estaban destruyendo estas máquinas porque sustituían a los trabajadores de los telares. Pero a Ada le encantaba esta asombrosa combinación de arte y tecnología, que un día tomaría la forma de una computadora.

Lovelace estableció las bases de lo que sería, un siglo más tarde, la era de las computadoras. La primera de ellas era que las máquinas serían capaces de procesar no solo números sino también cualquier otra cosa que pudiese expresarse mediante símbolos, como palabras, música o imágenes. «La máquina analítica teje patrones algebraicos como el telar teje flores y hojas», escribió. Pero introdujo la salvedad de que, por versátiles que llegasen a ser, las máquinas nunca sería capaces de pensar: «La máquina analítica no tiene ninguna pretensión de ser origen de nada», añadió. En otras palabras, en la combinación de las artes con la tecnología, el papel de los humanos sería el de aportar la creatividad y la imaginación.

2. La creatividad surge de la colaboración

Se suele pensar que las innovaciones surgen de un instante de inspiración en un garaje o en un desván. Pero eso no fue lo que sucedió en la era digital. La computadora e internet son dos de los inventos más importantes de nuestra era, pero pocos saben quién los inventó. No son obra de inventores solitarios susceptibles de aparecer en las portadas de las revistas o de incorporarse al panteón de los Edison, Bell y Morse, sino que la mayoría de las innovaciones de la era digital fueron obras colectivas.

[Fuente: La capacidad de colaboración fomenta la innovación, vídeo de Walter Isaacson]

Ver transcripción
Cuando hablamos de colaboraciones, enseguida pensamos en la de Steve Jobs y Steve Wozniak. Steve Jobs, un gran vendedor, la persona con el sentido del diseño y el brillo. Wozniak, capaz de crear un circuito asombroso con poquísimos microchips. Siempre hay que juntar a gente con mucha visión con personas capaces de llevar las cosas a la práctica.Esto también fue así para los primeros ordenadores. Gente como Presper Eckert, un gran ingeniero que trabajó con un visionario como John Mauchly. Estos nombres no los conoce tanta gente, porque no eran individuos aislados que pudiesen figurar en un panteón, o en la portada de una revista. Solían ser equipos de gente que trabajaba junta.De vez en cuando nos topamos con un innovador que no sabía cómo colaborar. Alguien como John Atanasoff, en la Universidad de Iowa State, que estaba ahí en un sótano, tratando de construir un ordenador con la ayuda de un solo estudiante de doctorado. Nunca logró que funcionasen los lectores de tarjetas perforadas, y cuando la Armada lo llamó a filas, la máquina se quedó allí en el sótano hasta que alguien decidió deshacerse de ella.

Si uno carece del respaldo de un equipo, si es incapaz de llevar a la práctica sus ideas, acaba en la papelera de la historia. Un gran equipo es aquel compuesto por muchos jugadores capaces de jugar en distintas posiciones, como un equipo de béisbol.Si pensamos en los padres fundadores de EEUU, entre ellos había personas apasionadas, como John Adams y su primo Samuel; personas muy brillantes, como Jefferson y Madison; personas de gran rectitud, como George Washington; y, por último, alguien como Benjamin Franklin, el «pegamento» que los unía a todos.

Ese es, en mi opinión, el tipo de equipo que se replica por ejemplo en Intel, con Gordon Moore, Robert Noyce y Andy Grove; o en los Laboratorios Bell, donde hay desde fantásticos científicos de la información a especialistas en trepar a los postes telefónicos que trabajan juntos como un equipo. Cuando pensamos en los equipos que crearon las grandes innovaciones de la era digital, vemos que no estaban formados por un solo tipo de personas, sino que reunían a gente con talentos muy diversos.

Por ejemplo, la computadora moderna. El debate sobre quién merece considerarse como su inventor aún continúa abierto: John Atanasoff, quien llevó a cabo sus trabajos en un sótano de la Universidad de Iowa State a principios de la década de 1940, o John Mauchly, que dirigió un equipo talentoso en la Universidad de Pennsylvania pocos años después. Atanasoff era un visionario solitario, lo que lo convierte en el favorito de los historiadores románticos; a Mauchly, por su parte, le encantaba ir de flor en flor como una abeja, recogiendo ideas y polinizando proyectos en lugares como los Laboratorios Bell, la Exposición Universal de 1939, RCA, las universidades de Dartmouth, Swathmore y, más adelante, la de Iowa State, donde tomó prestadas algunas ideas del propio Atanasoff.

Hasta qué punto Mauchly «robó» algunos de los conceptos de Atanasoff acabaría siendo objeto de una larga batalla legal, pero lo cierto es que, al recopilar ideas procedentes de toda una variedad de experiencias, el comportamiento de Mauchly seguía la tradición de los grandes investigadores. A diferencia de Atanasoff, Mauchly encontró un socio, J. Presper Eckert, que le ayudó a llevar a la práctica su visión, y reunió a un equipo amplio que contaba con decenas de ingenieros y mecánicos, además de un grupo de mujeres que se encargaban de las tareas de programación. El resultado fue ENIAC, la primera computadora electrónica de propósito general operativa en la práctica. La máquina de Atanasoff, sin embargo, aunque se construyó antes nunca se llegó realmente a poner en marcha, en parte porque no hubo ningún equipo que le ayudase a conseguir que funcionase el lector de tarjetas perforadas. Su computadora acumuló polvo en un sótano hasta que, cuando Atanasoff se incorporó a la Armada, se acabaron deshaciendo de ella pues nadie recordaba ya para qué servía.

3. La colaboración, mejor en persona

Uno de los mitos de la era digital es el de que todos podremos trabajar remotamente y colaborar por vía electrónica. Sin embargo, las innovaciones más importantes surgieron de gente que se reunía en persona, en cómodas butacas y no en páginas para chatear: mejor el Googleplex que los Google Hangouts.

Uno de los primeros ejemplos fueron los Laboratorios Bell durante los años treinta y cuarenta. En sus pasillos y cafeterías, los teóricos se juntaban con los ingenieros, experimentalistas, mecánicos curtidos e incluso operarios con las uñas mugrientas especialistas en trepar a los postes telefónicos. Claude Shannon, el excéntrico teórico de la información, se paseaba en bicicleta por los largos pasillos mientras hacía malabarismos e iba saludando a sus colegas. Una metáfora disparatada del fermento que se vivía en el ambiente.

Un grupo de estudio creado ex profeso se reunía cada semana para hablar de materiales semiconductores. Entre sus integrantes estaba un físico llamado William Shockley; un teórico cuántico, John Bardeen; y un hábil experimentalista, Walter Brattain. Bardeen y Brattain compartían espacio de trabajo, y ambos comentaban continuamente sus teorías y resultados experimentales, como un libretista y un compositor sentados al piano. Gracias a su toma y daca, encontraron la manera de manipular el silicio para fabricar lo que llegaría a ser el transistor.

Marissa Mayer, directora ejecutiva de Yahoo!
Marissa Mayer, directora ejecutiva de Yahoo! (Imagen: The Next Web)

Los fundadores de Intel crearon un espacio de trabajo extenso, pensado para grupos, que fomentaba el contacto entre los empleados, desde Robert Noyce para abajo. Cuando Steve Jobs diseñó la nueva sede de Pixar, prestó una atención obsesiva a a manera de estructurar el atrio, e incluso a la ubicación de los aseos, para que se produjesen encuentros fortuitos entre el personal. Una de las primeras decisiones de Marissa Mayer como directora ejecutiva de Yahoo consistió en disuadir a sus empleados de trabajar desde casa, argumentando que «las personas son más colaborativas e innovadoras cuando trabajan juntas».

4. La visión sin capacidad de ejecución es mera alucinación

Las conferencias de tecnología están plagadas de visionarios deseosos de mostrar prototipos y PowerPoints, pero la historia solo recompensa a quienes crean productos reales.

Por ejemplo, AOL fue fundada por William von Meister, un extravagante emprendedor en serie que disfrutaba lanzando compañías y viendo hasta dónde llegaban. Fue uno de los pioneros de una nueva raza de innovadores que, impulsados por la proliferación de inversores de capital riesgo, proponían ideas deslumbrantes pero se aburrían cuando llegaba la hora de ponerlas en práctica. Habría llevado a AOL a la ruina, como había hecho con sus cinco empresas anteriores, de no ser por la intervención de Jim Kimsey, un disciplinado exsoldado, y Steve Case, un director de marketing con mucha sangre fría. Von Meister fue expulsado de la compañía, y Case la llevó a convertirse en el servicio online más importante de los años noventa. Robert Noyce y Gordon Moore, fundadores de Intel, fueron también grandes visionarios. Pero como gestores eran indulgentes, e incapaces de tomar decisiones complicadas, por lo que incorporaron a Andy Grove para que se encargase de los detalles prácticos.

El corolario es que la ejecución sin visión es estéril: cuando los equipos brillantes carecían de visionarios apasionados, como sucedió en los Laboratorios Bell tras la marcha de William Shockley en 1955, o en Apple en 1985, después de la expulsión de Steve Jobs, la innovación se resintió.

5. El hombre es un animal social

Sí, Aristóteles fue el primero en tomar conciencia de ello, pero es algo más cierto que nunca en la era de las comunicaciones. ¿Cómo si no explicar la banda ciudadana, la proliferación de los radioaficionados, o sus sucesores como WhatsApp o Twitter? Internet se ideó para permitir que los investigadores pudiesen hacer un uso compartido de recursos de computación remotos. Pero enseguida hubo gente que sacó provecho de ella para crear el correo electrónico, las listas de correo, los tablones de anuncios, los grupos de noticias, las comunidades online, los blogs, las wikis y los juegos. Los humanos aprovechamos prácticamente cualquier herramienta digital, tanto si se había diseñado para ello como si no, para crear comunidades, facilitar la comunicación, compartir cosas y para permitir el establecimiento de redes sociales. En palabras de William Gibson, escritor ciberpunk: «La calle da su propio uso a las cosas». Lo mismo sucede con la revolución digital.

Fuente: «Five Lessons From The Digital Revolution», de Walter Isaacson, publicado en Vanity Fair

Más sobre Walter Isaacson y Los innovadores:

Los innovadores, de Walter Isaacson | Biblioteca de Por amor a la ciencia

Los innovadores: Los héroes olvidados de la era digital | Por amor a la ciencia

Walter Isaacson: “Es importante que no tengamos miedo a la tecnología” (El País, 26 de octubre de 2014)

Los innovadores: Los héroes olvidados de la era digital

En este vídeo (subtitulado en inglés y en español), Walter Isaacson, autor de la biografía definitiva de Steve Jobs, nos presenta a algunos de los protagonistas menos conocidos de su nuevo libro, Los innovadores, que traza la historia de las personas (y equipos de personas) responsables de la creación de dos tecnologías cuya convergencia ha sido fundamental para el advenimiento de la era digital en la que vivimos: el ordenador e internet.

Transcripción

Soy Walter Isaacson, autor de «Los innovadores». Quiero hablarles de algunos héroes olvidados, verdaderos innovadores poco conocidos que contribuyeron a definir la revolución digital.

Para mí, la primera sería Ada Byron Lovelace, la hija de Lord Byron. Su padre era un gran poeta romántico, pero su madre era matemática, y obligó a que Ada solo estudiase matemáticas, porque no quería que acabase pareciéndose mucho a su padre el romántico.

Ada Byron, condesa de Lovelace: la primera programadora. Fuente: Wikipedia.
Ada Byron, condesa de Lovelace: la primera programadora. Fuente: Wikipedia.

Ada Lovelace captaba la conexión existente entre las humanidades, como la poesía, y la tecnología. Y al conectarlas fue capaz de imaginar cómo las tarjetas perforadas, que se utilizaban en los telares ingleses para tejer hermosos patrones, podrían usarse en máquinas calculadoras para permitir que, como Ada decía, pudiesen manejar cualquier cosa que se representase mediante símbolos, como música, arte, imágenes, e incluso poesía.

En mi opinión, ella es la primera de las heroínas olvidadas de la revolución digital.

Otro de los héroes olvidados es Robert Noyce. Alguna gente lo conoce como uno de los inventores del microchip, pero lo que también creó fue el concepto de empresa de Silicon Valley.

Primero creó Fairchild Semiconductor, y después Intel, con su amigo Gordon Moore y un tipo llamado Andy Grove, que realmente sabía cómo llevar las cosas a la práctica.

Andy Grove, Robert Noyce y Gordon Moore, fundadores de Intel. Fuente: Wikipedia
Andy Grove, Robert Noyce y Gordon Moore, fundadores de Intel. Fuente: Wikipedia

Tenían un espacio de trabajo amplio y diáfano. Sin jerarquías. Todo el mundo podía crear equipos y hablar con cualquiera. En Fairchild y luego en Intel, introdujeron mejoras en el transistor, inventaron el microchip (que permite grabar muchísimos transistores en una plancha de silicio) y, por último, el microprocesador (en el que toda la unidad de procesamiento de un ordenador cabe en un pedazo minúsculo de silicio), lo cual hizo posible el nacimiento del ordenador personal.

Uno de los más encantadores de los héroes olvidados de la era digital es Alan Kay. Kay era un personaje muy artístico. Le encantaban la música y las artes, pero era también un gran ingeniero y programador, y trabajaba en Xerox PARC.

Contribuyó al desarrollo de la idea del ordenador personal de mano. Lo llamó Dynabook, e imaginó que los niños de todas las edades lo usarían en la calle.

Boceto del Dynabook de Alan Kay. Fuente: Computer History Museum
Boceto del Dynabook de Alan Kay. Fuente: Computer History Museum

También contribuyó a crear la interfaz gráfica de usuario. En Xerox PARC, Kay y el resto del equipo inventaron el concepto de una pequeña papelera, donde deshacerse de lo que ya no fuese útil; o de las carpetas para organizar documentos. Todas esas ideas visuales que vemos tanto en los ordenadores de Apple como en los que usan Windows. Steve Jobs visitó Xerox PARC, quedó deslumbrado por Alan Kay y el resto del equipo, y así fue como surgió la primera interfaz gráfica de usuario de los ordenadores de Apple, que después incorporaron también el resto.

Entre los héroes olvidados de la era digital está también J. C. R. Licklider, quien merece el título de «padre de internet». Licklider trabajaba en sistema de aire-tierra, sistemas de defensa antimisiles, y comprendió que debían ser muy interactivos, que debían permitir que los operarios pudiesen hacer su trabajo frente a una consola. También comprendió la importancia de tener una conexión instantánea en red.

J. C. R. Licklider, el «padre de internet». Fuente: Computer History Museum
J. C. R. Licklider, el «padre de internet». Fuente: Computer History Museum

Licklider imaginó una red de ordenadores interactivos, y cuando pasó a trabajar para el gobierno, en el Pentágono, en lo que por aquel entonces se llamaba ARPA (Agencia de Proyectos de Investigación Avanzados), propuso la posibilidad de compartir el uso ordenadores a través de una red. Y de ahí surgió ARPANET, la verdadera precursora de la internet actual.

Más sobre Walter Isaacson y Los innovadores:

Los innovadores, de Walter Isaacson | Biblioteca de Por amor a la ciencia

Walter Isaacson: “Es importante que no tengamos miedo a la tecnología” (El País, 26 de octubre de 2014)