¿De dónde viene todo lo que hacemos en el mundo de las startups?

Viene de Silicon Valley. Sí, esto lo sabemos. Sabemos que se trata de un modelo de creación de tecnologías innovadoras, un modelo de innovación y disrupción, totalmente basado en la figura del individual emprendedor que (y sin que sea una paradoja de esa importancia de la individualidad) forma equipos para crear, para aportar. Unos equipos que buscan inversión de riesgo para desarrollar esas propuestas y acaban triunfando o…. en la mayoría de ocasiones, fracasando. Sabemos que ese modelo se ha extendido por el mundo desde sus inicios. Sabemos todo eso. Pero…. ¿cuáles son los detalles más concretos? Trato de aportaros esos detalles a continuación. Me baso en referencias como un par de libros de Walter Isaacson: Los innovadores y Steve Jobs. También en la gran obra de Andreu Vea. He desempolvado asimismo algunos libros que no había utilizado desde mis estudios como Ingeniero Electrónico en la Universidad. Y por supuesto, he ido a Wikipedia.

Silicon Valley no fue nada planificado. A diferencia por ejemplo de Akademgorogk o de  Tsukuba. Eso lo tenemos claro. Pero no tenemos tan claro el inicio. Silicon Valley se formó como consecuencia del proceso de invención y perfeccionamiento de los ordenadores. Fue (como todos los casos de grandes disrupciones) un proceso de creación iniciado por individuales creadores que prendieron la mecha. Y a modo de contagio, se convirtió en algo masivo, tanto desde el punto de vista económico como social. Por tanto, hablar del origen de Silicon Valley supone hablar del inicio de los ordenadores. Y parece ser que tan lejos como en el siglo XIX alguien (Charles Babbage) ya quería construir una máquina de calcular. Ese primer deseo fue seguido por otros innovadores, en distintos momentos. Pero la mayor parte de las propuestas de “máquinas” de este tipo se concretaron a inicios del siglo XX en Estados Unidos.

Un cambio tan enorme como la automatización de la capacidad de cálculo del ser humano no es algo que pueda atribuirse a una sola invención, máquina, tecnología o persona. Como ocurre con todos los grandes cambios tecnológicos, se da un proceso de maduración y evolución de distintos ámbitos y conocimientos que en un momento determinado encajan sorprendentemente formando una gran imagen con una vida y una dinámica que nadie podía haber imaginado hasta ese momento. ¿Cuáles fueron las tecnologías y los conocimientos que encajaron en esa gran revolución de los ordenadores? Simplificando, las matemáticas (a través de la llamada álgebra de Boole), las tarjetas perforadas como manera de trasladar instrucciones a una máquina (las cuales se habían inventado y utilizado en el sector textil), también por supuesto la electricidad, al principio algo de electromecánica (los relés) y posteriormente dispositivos resultantes de los primeros pasos de la electrónica. En concreto, las válvulas de vacío, que venían del mundo de la radio. Más tarde, la propia revolución exigió mucho más a algunas de esas tecnologías, que no permitían la evolución y el crecimiento, y se llegó a los semiconductores.

Las primeras máquinas de calcular fueron posibles gracias al álgebra de Boole o álgebra booleana. No quiero aquí hacer una clase de matemáticas básicas. Pero debo recordaros que existe la aritmética, la cual trata de los números y de las operaciones básicas. Os recuerdo también que el álgebra trataba de las fórmulas y las ecuaciones, con sus correspondientes variables e incógnitas, llegando a sistemas complejos de polinomios de varios grados. A mediados del siglo XIX George Boole desarrolló un sistema de reglas que servían para expresar y tratar problemas lógicos y también filosóficos (¿recordáis la asignatura de filosofía del bachillerato, en la cual hicimos cosas de lógica?) que sólo admitían dos estados: verdadero o falso. Utilizo un ejemplo de Wikipedia para refrescaros la memoria:

  • Hoy está soleado o está nublado.
  • Hoy no está nublado.
  • Por lo tanto, hoy está soleado.

Si cambiamos esas afirmaciones por letras (que pueden representar solo uno de los dos estados), nos queda algo como:

  • p o q
  • No q
  • Por lo tanto, p

Esas letras p, q son variables proposicionales. El álgebra de Boole trató ese tipo de expresiones de lógica proposicional mediante técnicas algebraicas. Simplificando, lo más relevante para el objetivo de este post es que todo ese mundo matemático (y recuerdo que hablamos de construir “máquinas de calcular”) se reducía a los dos estados de verdadero o falso.

Otra pieza del inmenso puzle que supuso la automatización de la capacidad de cálculo humana fueron las cintas perforadas, basadas precisamente en esa lógica binaria. Esas cintas perforadas se trasladaron al sector de los ordenadores desde otro sector, el textil. Joseph Marie Jacquard había inventado en 1801 una máquina que tejía patrones basándose en este tipo de tarjetas. Más tarde, a finales del siglo XIX, la Oficina del Censo americana necesitó ocho años para tratar los datos de 1880. Un trabajador de la oficina, Herman Hollerith, ideó un sistema para automatizar el tratamiento de los datos del siguiente censo, el de 1890. Se dio cuenta que las preguntas necesarias para obtener los datos del censo se podían responder únicamente con dos opciones: Si o no. Por ejemplo, es hombre, es mujer, es extranjero, está casado, etc. etc. Adaptó la idea de las tarjetas perforadas y las diseñó de manera que los datos tenían esas dos únicas opciones. A continuación construyó una máquina para tratar los datos. Con ello, el censo de 1890 se analizó y tabuló en pocas semanas. Esa máquina fue uno de los primeros ordenadores (aunque no el primero). Y su idea de tratamiento de la información con esas tarjetas perforadas perduraría durante varias décadas.

Decíamos que esa máquina no fue el primer ordenador. Se considera que lo fue la máquina diferencial de Charles Babbage, quién tan pronto como en 1835 había desarrollado un artilugio (como el de Herman Hollerith también mecánico), que funcionaba mediante engranajes (a similitud de esos relojes inmensos de campanario), accionado mediante manivela, para sumar y restar dígitos. Babbage diseñó (aunque no construyó) una máquina evolucionada de la anterior. En ella, la llamada máquina analítica, ya llegó a sugerir la utilización de las tarjetas perforadas provenientes del sector textil como manera de introducir la información. En lenguaje actual, esa máquina hubiese tenido unos 20kB de memoria ya que podía guardar 1000 números de 50 dígitos.

¿Por qué no cuajó en ese momento la máquina de Babbage? Para simplificar, podríamos decir que no era el momento adecuado. Estaba aún lejos la hora de la conjunción de todas las piezas del enorme puzle, de todas las tecnologías necesarias para dar soporte a un objetivo tan ambicioso como el de dotar al ser humano de una gran capacidad de cálculo. Por supuesto, una de las piezas era la mentalidad de una parte importante de la sociedad, que a mediados del siglo XIX era incapaz de ver el potencial de lo que una sola persona proponía.

Con Babbage trabajó intensamente Ada Lovelace, hija de Lord Byron. Se considera a Ada la primera programadora de la historia. En su recuerdo y homenaje el lenguaje de programación Ada lleva su nombre. Cada 7 de octubre se celebra el Ada Lovelace Day, para reconocer a las mujeres que trabajan en ciencia, tecnología, matemáticas e ingeniería.

En 1931, Vannevar Bush, profesor del MIT (y a quién hoy se le considera padre de la Ciencia americana), construyó el primer ordenador electromecánico –pero analógico- del mundo. Se basó en invenciones de dos grandes científicos británicos, los hermanos William y James Thomson. El primero es conocido como Lord Kelvin, que definió el cero absoluto de temperatura. Los hermanos Kelvin habían creado una máquina para resolver ecuaciones diferenciales (por ejemplo, para calcular trayectorias de proyectiles de artillería). Desarrollaron un dispositivo mecánico básico de integración matemática. Pero no supieron construir una máquina con múltiples integradores. Eso lo hizo Bush en 1931, con su máquina eléctrica de seis integradores, con ejes y engranajes, que podía resolver ecuaciones de 18 variables.

Pero la máquina de Bush era analógica y electromecánica, de uso muy limitado. Fue precisamente en ese momento, en esa misma década de los 30 del siglo pasado, sobre la base de multitud de trabajos e invenciones previas, cuando se configuraron los rasgos distintivos de la gran revolución que estaba a punto de llegar. Esos rasgos son los siguientes: las máquinas de calcular debían basarse en la electrónica, que se había desarrollado en paralelo hasta ese momento, desde el mundo de la radio. Debían permitir realizar varias tareas (no solo resolver ecuaciones diferenciales) reprogramándolas. Por otra parte, en ese momento se vio claramente que las máquinas de calcular debían ser digitales. Además, más específicamente, basadas en el sistema binario y no decimal. Es decir, debían funcionar con 0 y 1.

Aquí hago un apunte para ayudar a los que no conocen este mundo de los sistemas: Los números pueden expresarse mediante varios sistemas. El decimal es el que conocemos desde pequeños. El binario es poco conocido y para aquellas personas que no han estado en contacto con el concepto les cuesta entender. Cualquier cifra puede ser escrita sólo mediante ceros y unos. Esto es lo que permite un sistema binario. Si queréis comprender un sistema de enumeración de este tipo, no tenéis más que buscar en google. Pero a efectos de este post, solo debéis saber lo que acabo de decir: Cualquier cifra se puede expresar utilizando únicamente 0 y 1. Por ejemplo, en binario el número 1 es 01, el número 2 es 10 y el 3 es 11. Otros ejemplos: el 8 es 1000, el 15 es 1111 o el 17, 10001. Es decir, si suponemos que tenemos infinitas bombillas, con sus correspondientes interruptores, encendiendo o apagando esos interruptores podemos representar cualquier número. Por supuesto, el sistema binario, como el decimal, permite hacer operaciones.

Esa década de los años 30 (y más en concreto, a finales de esa década) es cuando más claramente empezaron a encajar todas esas y otras piezas del inmenso puzle, unas piezas que se habían ido construyendo y puliendo por separado y que en un momento determinado adquirieron lógica de manera conjunta.

Así, en 1937 se dio otro hito fundamental para avanzar hacia ese futuro revolucionario. Este año, el estudiante del MIT Claude Shannon publicó su tesis de máster. Lo que hacía Shannon en su tesis era implementar el Álgebra de Boole y la lógica binaria utilizando “interruptores” (los denominados relés y conmutadores). La tesis de Shannon se considera la Carta Magna de la era de la información. Isaacson dice: “George Boole había revolucionado la lógica al encontrar formar de expresar enunciados lógicos empleando símbolos y ecuaciones algebraicas. Utilizando un sistema binario, dio a las proposiciones verdaderas el valor de 1 y a las falsas en valor de 0. A partir de ahí podían realizarse una serie de operaciones lógicas básicas con tales proposiciones, exactamente igual que si fueran ecuaciones matemáticas. Por ejemplo AND, OR, NAND, NOR, etc.” Shannon dio forma física a esa matemática, proponiendo el uso de relés e interruptores. Su trabajo fue eso: Una guía de conversión de esa algebra a dispositivos físicos para implementarla. Su tesis (¡de máster amigos, de máster, no de doctorado!) es consultable online. Aquí la tenéis.

Las piezas del puzle iban encajando y el dibujo total iba adquiriendo nitidez. Pero faltaban fragmentos que no ajustaban. Por ejemplo, antes hemos hablado de interruptores y bombillas. ¿Cómo tener una máquina de calcular mínimamente potente (es decir, con miles y miles de interruptores y bombillas) que no fuese de proporciones monstruosas. Imaginemos una “tecnología basada en agua”, un sistema de cubos, llenos o vacíos, con sus correspondientes grifos y tubos para llenarlos o vaciarlos. Para representar un 1 llenamos de agua un cubo. Para representar un 0 mantenemos vacío otro cubo. Avanzo que un procesador actual tiene más de 1.000 millones de 0 y 1, que cambian de estado más rápidamente que nuestro pensamiento. Es evidente que la solución de los cubos de agua no se hubiese podido escalar, ni por tamaño ni por velocidad. Esa solución no hubiese permitido el crecimiento del mundo de los ordenadores.

Pues resulta que las opciones que se habían trabajado hasta ese momento no eran demasiado mejores. Así pues, la tecnología para codificar un 0 o un 1 era algo que debía trabajarse. Hemos dicho que los primeros intentos habían sido totalmente mecánicos. Por ejemplo, máquinas con engranajes y ruedas dentadas. Más tarde se utilizaron relés electromecánicos, que habían sido inventados en el siglo XIX. Básicamente son interruptores, como los que utilizáis en casa para abrir la luz del comedor. Es decir, abren o cierran un circuito eléctrico (lo llamo circuito 1). Pero los relés no se accionan manualmente. Se accionan mediante otro circuito eléctrico (lo llamo circuito 2). El circuito 1 que controlan los relés es de mayor potencia que el circuito 2 que se utiliza para abrirlos o cerrarlos. Por tanto, se considera que son también amplificadores eléctricos.

Los relés servían por tanto para codificar toda esa matemática basada únicamente en 0 y 1. Un relé tiene solo dos posiciones: Una era el 0 y la otra el 1. Además, una máquina de calcular basada en relés podía ser “programable” fácilmente ya que podía cambiar de estado actuando desde el circuito 2 de control de los relés. Esa idea de los dos circuitos es fundamental y se repetirá en todas las tecnologías posteriores que se han desarrollado para implementar los ordenadores. Los relés se utilizaban para lo que entonces ya eran partes identificables de los ordenadores. En ese momento ya se habían sugerido las unidades aritmética, de control y la memoria. La semilla de la arquitectura de los ordenadores estaba ya ahí. 

Pero los relés eran ruidosos (una gran máquina de cálculo con relés se asemejaría a varias actuaciones simultaneas de claqué y flamenco). Además consumían mucho y eran poco fiables. En la década de los 40 se pensó en las válvulas de vacío como sus substitutos. Se entró por tanto de lleno en las máquinas de calcular únicamente electrónicas. Las válvulas de vacío fueron una de esas piezas del puzle que había sido pulida en otro contexto (el mundo de la radio) pero de golpe adquirió sentido para su utilización en esas deseadas máquinas de calcular. Simplificando, la válvula de vacío es un relé (por tanto también con dos posiciones 0 y 1) sin el dispositivo mecánico de abertura y cierre. Es un interruptor y amplificador totalmente electrónico. En su forma se parece a una bombilla tradicional. En su interior circulan los electrones a baja presión y con presencia de algún gas.

El famoso ENIAC se construyó con válvulas de ese tipo. El ENIAC es considerado por muchos como el primer ordenador de la historia, al ser totalmente programable. Fue construido en la Universidad de Pensilvania. Según Wikipedia “ocupaba una superficie de 167 m² y operaba con un total de 17.468 válvulas de vacío que permitían realizar cerca de 5.000 sumas y 300 multiplicaciones por segundo. Pesaba 27 toneladas y medía 2,4 por 30 metros. Requería la operación manual de unos 6.000 interruptores”. El ENIAC es también conocido por el papel que desempeñaron mujeres programándolo. En ese momento, se consideraba la programación como un trabajo secundario y ese mundo sexista asignó a mujeres esa labor. Sin embargo, pronto se vio la gran responsabilidad que eso suponía. Podéis leer aquí un interesante artículo: “Las chicas del ENIAC”. De hecho, una de las mujeres que colaboró en el ENIAC para su programación, la reconocida Grace Hopper, llegaría a desarrollar el lenguaje COBOL que aún hoy es ampliamente utilizado. Yo lo tuve como centro de mi vida profesional en la etapa de 4 años en que me dediqué al mundo de la informática de gestión.

Pero los tubos de vacío continuaban generando máquinas de calcular excesivamente grandes y de elevado coste energético. Además, la conmutación (el cambio de estado 0-1) no era suficientemente rápido. Por tanto, el siguiente paso parecía obvio: debía irse a algo nuevo. La gran revolución llegó en 1947, cuando técnicos del Laboratorio Bell inventaron el transistor. Se trata de un mecanismo igual al relé y a la válvula de vacío, también con dos circuitos, uno de los cuáles a mayor potencia y otro de activación de su estado. Pero era minúsculo. Podían integrarse enormes cantidades de transistores sobre pequeñas piezas de silicio o germanio. Los ordenadores podrían por tanto crecer, al no afectarse el consumo y el espacio. El transistor supuso el avance definitivo. Hace pocos días os conté la invención del transistor en ese post. Os sugiero que lo leáis para completar lo que aquí os he explicado.

Pero no todo fueron invenciones físicas.

El mundo de los ordenadores permitió también alumbrar otra “invención” que revolucionaría la economía: El capital riesgo. El capital riesgo nació justo en el mismo momento en que se inventaba el transistor, cuando determinadas familias acaudaladas fundaron empresas para invertir. John Hay Whitney & Co empezó especializándose en lo que llamaron venture capital, capital aventurero. Una de las iniciativas más remarcables fue la American Research and Development Corporation (ARDC) fundada por George Doriot (antiguo decano de Harvard) y Karl Compton (antiguo decano del MIT. Todo esto fue en la costa Este americana. En la costa Oeste, fue Arthur Rock quién implantó el concepto. Una de sus operaciones iniciales fue la que os cuento en el post mencionado, cuando en 1957 los famosos ocho profesionales del Shockley Semiconductor Laboratory abandonaron la compañía cansados el duro carácter de William Shockley y fundaron Fairchild Semiconductor.

¿Qué queda de todo aquello?

Hasta aquí os he contado cosas que podéis encontrar muy fácilmente en cualquier búsqueda en Google. No he sido para nada original, simplemente sintético (los que hayáis llegado hasta aquí os reiréis por lo de “sintético”). En cambio, quisiera ahora hacer unas reflexiones que no son tan inmediatas. La primera es que, a mi modo de ver, todo aquello formó una Nueva Economía, la denominada Economía de Startups, que se ha extendido por el mundo y que hoy está en el momento de mayor auge. Otras conclusiones y reflexiones son las siguientes:

  • Estas revoluciones se basan en el gran valor y participación de los individuales creadores, los cuáles arrastran a otros actores en la consecución de objetivos de mejora tecnológica y de búsqueda de la disrupción
  • Existen unas altas expectativas puestas en las nuevas tecnologías
  • Hoy es definitivo el acompañamiento del capital riesgo
  • Existen ganadores y también muchos perdedores. Hay muchos, muchos perdedores en toda gran revolución tecnológica. En este post me he centrado en unos pocos de los ganadores.
  • Cada paso, cada ola o bloque de una gran revolución produce grandes corporaciones que permanecen durante largo tiempo. Por ejemplo, Herman Hollerith, el tabulador del censo americano de 1890, creó en 1896 la Tabulating Machine Company, para comercializar su máquina. Su empresa se fusionó más tarde con otras tres dando lugar, en 1924, a la International Business Machines Corporation (IBM).
  • En parte relacionado con el punto anterior, se da una intensa creación de de empresas desde otras empresas, la cual acaba generando grandes corporaciones. Fairchild se fundó desde la primera empresa de semiconductores. Pero de Fairchild salieron decenas y decenas de otras nuevas empresas, Intel entre ellas.
  • En el caso de la revolución de los ordenadores, la generación inicial estuvo muy concentrada en la costa Este americana. Pero finalmente la clusterización se produjo en la costa Oeste, en Silicon Valley. La clusterización de determinados ámbitos tecnológicos puede por tanto no estar relacionada con el sitio de la invención y desarrollo de las tecnologías.
  • El papel de las universidades y los centros de investigación es esencial, siempre están en el origen de esos grandes movimientos tecnológicos

Pero a mi modo de ver, la conclusión más importante es la evidencia de que los grandes cambios tecnológicos son producidos por la confluencia de varios –a veces multitud- de factores que están evolucionando desde hace tiempo y que en un momento determinado adquieren suficiente madurez y -de golpe- su conjunción adquiere sentido para los que en ese momento tienen proximidad y exposición a esos cambios. Esa característica es la que motiva que determinadas grandes innovaciones hoy puedan ocurrir simultáneamente en distintos sitios. Esa misma característica motiva también que las innovaciones tengan su momento justo. No pueden salir antes aunque haya innovadores que perfeccionen y avancen enormemente ciertas partes del puzle. Para esos innovadores “fuera de tiempo” su dedicación es muy desagradecida: No tendrán nunca (en vida) el reconocimiento de sus próximos.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.