Persona manejando un ordenador y un móvil

De los PCs a los móviles: ¿Qué nos depara el futuro? La era de la inteligencia

En los últimos años se ha vivido una gran evolución tecnológica que, según parece, se prolongará en el futuro

Desde aquellos años 30 en los que un grupo de matemáticos y lógicos (Turing, Gödel y Church) lanzaron el campo teórico que hoy llamamos Ciencias de la Computación (Computer Science) hasta la fecha, han pasado más de 80 años. Por medio, los años 50-60, cuando nace la industria asociada, que permite llevar a los ordenadores a más lugares que grandes laboratorios. 

La “industria de la computación“, que podemos llamar para simplificar “mundo digital” ha ido desarrollándose siempre de la mano de dos ciclos: el del producto y el financiero. De este último se está hablando mucho últimamente, especialmente porque muchos creen que volvemos al año 2000 y las probabilidades de que exista una burbuja financiera están aumentando. No lo sé. Bueno, mejor dicho, no lo creo. Creo que no son las expectativas irracionales del año 2000, cuando la burbuja de las “.com”, provocó que se descubriera que apenas se creaba valor en aquella época de Internet. Yo creo que hoy sí está generando valor la constante transformación digital de las industrias. 

Hoy quiero hablar sobre cómo se está generando valor sobre las diferentes plataformas que hoy en día están permitiendo el desarrollo de valor en productos gracias a la era digital: básicamente, Internet y los dispositivos móviles. 

La respuesta sobre la posibilidad de una burbuja recae siempre en el “Ciclo de producto“. Hoy en día, el “Ciclo de producto”, es decir, el producto tecnológico, se puede describir formalmente de la siguiente manera: Producto tecnológico = Plataforma + Aplicaciones.

Evolución tecnológica

Es decir, que la posibilidad del desarrollo de producto tecnológico (se entiende que digital, las Tecnologías de la Información y la Comunicación), depende de disponer de una infraestructura de soporte (Plataformas) sobre la que desarrollamos una serie de utilidades o aplicaciones. A nivel de plataformas y aplicaciones, hasta la fecha, podemos decir que hemos vivido básicamente cuatro ciclos desde los años 50-60:

1- Era centralizada: Sistemas que automatizan trabajos administrativos. Apenas (o ningún) valor intelectual. Se mecanizan ciertos procesos, que se hacen más eficientes.

2- Era del PC: Cliente-servidor. Aparece el ordenador personal, ya no solo como una herramienta de ciertos procesos, sino que pasa al trabajo personal para hacerlo más productivo. Construimos aplicaciones de ofimática y otras de escritorio. Es la era que arranca el Apple II en 1977 y el IBM PC en 1981.

Hombre escribiendo en el ordenador
Las apariciones del ordenador y de Internet, fueron muy importantes | Getty Images

3-Era de Internet: Nace la interconexión entre los PC, que ha desarrollado gran parte de la economía global. Es uno de los pilares de la infraestructura actual. Empezamos a construir aplicaciones como buscadores, correo electrónico, tiendas online, redes sociales, SaaS, etc. Si bien en algunos entornos académicos o militares ya se disponía de algunas de estas cuestiones en los 80s, realmente a nivel de consumo aparece en 1993 con Mosaic, el primer navegador web gráfico.

4- Era de los dispositivos móviles: El segundo gran pilar, y quizás el ciclo más importante ahora mismo. 2.000 millones de personas tienen al menos 1 smartphone. Y hemos desarrollado aplicaciones móviles para agilizar e intermediar en cadenas de valor como el taxi, alojamientos turísticos, etc. Si bien Blackberry y Nokia irrumpen a comienzos de los 2000, el pistoletazo de salida sin duda alguno lo provocan en 2007-08 el iPhone y Android.

¿Qué nos depara el futuro?

La pregunta ahora recae en lo que está por venir. Es decir, dónde están las oportunidades para los emprendedores. Para ello, quizás sea interesante pararse a pensar en las tendencias hardware y software que se están produciendo, para así hacer una reflexión sobre lo que pudiera aparecer:

  • Hardware: Está siendo cada vez más pequeño, barato y ubicuo. Pensemos que las CPU que tenemos ahora son “systems-on-a-chip“, en el sentido de que por 5 dólares tenemos una Raspberry Pi Zero con un procesador de 1 GhZ y 512 MB de RAM. Una locura para los que adquirieron su primer ordenador (hardware) a mediados de los años 90 con características inferiores y precios totalmente desorbitados. Dos cuestiones fundamentales caracterizan al desarrollo del hardware:

    La Ley de Moore y la industria de los semiconductores: Cada vez por menos recursos, tenemos más producto (tanto en capacidad como potencia). Por lo tanto, esta tendencia hardware hace que a futuro, veamos “ordenadores” en todas las esquinas que nos rodean (paredes, autobuses, zapatillas, cunas de nuestros hijos, etc.). Es lo que se ha venido a bautizar como el Internet de las Cosas.

    Como diría Chris Anderson “El dividendo de la paz en la guerra de los smartphone“: Los componentes de los móviles, ante la guerra que se desató entre fabricantes (Apple, Google, Samsung, etc.), hace que sean más económicos que nunca: sensores, GPS, cámaras, procesadores ARM, antenas WiFi, memorias, baterías, etc. Esto, beneficia a industrias colindantes como los drones, sensorización, las fábricas (ahí tenéis la Industria 4.0), etc.
     
    Hardware de un ordenador
    El hardware es cada vez más pequeño, barato y ubicuo | Getty Images

  • Software: estamos viviendo ahora mismo la era dorada de la “Inteligencia Artificial“, tras el “largo invierno” que vivió en los 80 y 90. Quizás derivado de la abundante materia prima que tienen ahora los algoritmos para mejorarse a sí mismos (el “machine learning en la era del Big Data“). Tenemos varias cuestiones moviéndose a gran velocidad:

    -Sistemas distribuidos: Hadoop, Spark, y la posibilidad de paralelizar Bases de Datos y resolución de problemas.
    -Blockchain: para asegurar datos y activos. 
    -Deep Learning: un descendiente directo de las redes neuronales. Pero que se beneficia en la actualidad de la gran cantidad de datos, el bajo precio de la computación y los nuevos algoritmos. Algoritmos de inferencia de conocimiento no conocidos hasta la fecha.
    -Open Source: democratización de las posibilidades de crear. Estamos asistiendo, por primera vez en la historia, a unas capacidades tecnológicas muy “económicas” en términos monetarios, aunque de gran exigencia intelectual. Nada es gratis. Whatsapp se crea con 50 empleadas, y presta un servicio a 1 de cada 9 ciudadanos del mundo (algo más de 900 millones de personas ahora mismo).

Lo bonito de todas estas cuestiones aparece cuando mezclas todo ello. Y es que los sistemas de Inteligencia Artificial, son mejores con una mayor cantidad de datos. El Deep Learning, mejorará en consecuencia. Y las tecnologías Open Source, seguirán desarrollándose. Todo ello, en agregado, produce el “data-network effect“: más usuarios, más datos, llevan a mejores productos, que traen más usuarios. ¿Por qué Google pagó por Waze mil millones de dólares?

Por todo ello, creo que queda todavía mucha inteligencia que aportar a elementos como los asistentes de voz, motores de búsqueda, estrategias de retargeting (una mejora de la publicidad), traductores, automóviles (Uber, Tesla, Google, Ford, Daimler, etc.), drones (hardware complejo con un software simple), medicina y abogacía, escáneres e impresores 3D, etc.

Esa capa de “virtualización inteligente” que aporta la mezcla de esas tendencias de hardware y software llevará a la mejora de las prestaciones de esos elementos y áreas. O, al menos, esas es mi visión, claro. De los PCs a los móviles, para aprovechar esta “era de la inteligencia“.