25 de septiembre de 2017

SORPASSO DIGITAL

Según Bloomberg (ver aquí), Amazon se ha convertido ya en la empresa líder mundial en I+D, desbancando al antiguo campeón, Volkswagen. No es un tema menor. Es la prueba del nueve de que las tecnologías expansivas que van a impactar de modo más disruptivo en los próximos años son tecnologías de base digital (capitaneadas por la inteligencia artificial), y una nueva evidencia del cambio de signo de la economía del siglo XXI. Dejamos atrás las tecnologías industriales, y nos enfocamos masivamente en tecnologías digitales (sin obviar los campos de interacción entre ellas). Las empresas en la frontera digital, todas ellas extremadamente jóvenes, controlan definitivamente el mundo económico, dejando atrás a gigantes automovilísticos, químicos o farmacéuticos. Entre las diez empresas con mayores presupuestos de I+D del mundo, seis pertenecen a la esfera de la digitalización y las comunicaciones móviles: Amazon, Alphabet (Google), Intel, Microsoft, Huawei y Apple. Amazon invierte en I+D tres veces más que la vieja IBM, y su impacto en la economía se empieza a notar por todas partes. No sólo en el ocaso del retailing mundial (la quiebra de Toys R Us, la gran cadena de juguetes, es la última muestra de cómo el e-commerce está acabando con la distribución tradicional). También en la presión sobre rivales de naturaleza similar, como Google, que ve cómo el público deja de usar su buscador para encontrar productos y ofertas, y desvía su tráfico directamente hacia la gran interfase de compra mundial: Amazon.

¡Cómo ha cambiado el panorama en sólo una década! En 2004 ni una sola de las grandes plataformas digitales del mundo internet figuraba en el podio de la I+D mundial. Si entre los 10 líderes de 2004 encontrábamos 4 empresas automovilísticas (Ford, Toyota, Daimler y General Motors), hoy sólo queda Volkswagen en el “top ten” como último representante del viejo mundo del motor. Si los campeones del incipiente mundo digital eran Microsoft e IBM en 2004, hoy ya son seis los líderes digitales que figuran en el top. Si Siemens y Matsushita aparecían en 2004, hoy no queda ningún grupo industrial en la cima.


La gran batalla competitiva gira definitivamente hacia las tecnologías digitales. Que van a afectar profundamente la forma en que vivimos, trabajamos, aprendemos, consumimos, nos relacionamos, y opinamos, de manera inesperada e inquietante. Basta saber que, durante las últimas elecciones americanas, fueron abiertas en Facebook unas 400 cuentas falsas (conectadas a cuentas rusas), de teóricos ciudadanos norteamericanos, que compraron alrededor de 100.000 $ en diferentes anuncios publicitarios, y generaron infinidad de comentarios políticos (al parecer, de forma automática, mediante bots -robots digitales capaces de sintetizar texto o voz-) con la finalidad aparente de crear estados de opinión e incidir el resultado de los comicios. Ni siquiera Facebook conoce el alcance de este ciberataque (o cibercampaña), como acaba de reconocer el propio Zuckerberg. Una diferencia fundamental de las plataformas digitales respecto a las viejas marcas industriales es que, en un nuevo paradigma de sistemas de información que está en fase de gestación, las primeras no son capaces de controlar el impacto que sus procesos internos y externos pueden generar. Entramos, definitivamente, en la Era Digital.

10 de septiembre de 2017

¿ACEPTARÍAS UN ROBOT COMO CEO?

La Inteligencia Artificial causará en los próximos años una revolución que hará palidecer la llegada de internet. El incremento de potencia de los procesadores electrónicos, combinados con el desarrollo de nuevas tecnologías core en el campo de la Inteligencia Artificial (como machine learning, deep learning o reinforcement learning), más tecnologías de interacción (como visión artificial, realidad aumentada, y reconocimiento de voz y texto) crean el escenario perfecto para una explosión de nuevas aplicaciones en campos como los negocios, la administración, la educación, la defensa o el sistema sanitario.

La Inteligencia Artificial comprende un conjunto de tecnologías capaces de obtener datos del entorno, procesarlos, extraer patrones, tomar decisiones, evaluarlas, mejorar de su experiencia e interactuar de nuevo con el entorno, dando respuesta a los inputs recibidos. La interacción es casi humana (reconociendo imágenes, texto o voz, y respondiendo con inteligencia social, mediante voz o texto). Su expansión redefinirá por completo la relación persona-máquina y multiplicará, si cabe, el impacto de los sistemas de información en la sociedad moderna. Machine learning permite que las máquinas mejoren y corrijan sus errores. Deep learning habilita que se autoprogramen y redefinan sus mecanismos de funcionamiento internos (mediante redes neuronales artificiales que imitan el cerebro humano), y reinforcement learning facilita que aprendan desde cero, a partir de reglas simples, por prueba y error, hasta la frontera de lo posible. Los sistemas que ganaron a los campeones mundiales de Póker o Go desarrollaron excelencia en el juego desde la nada, a partir de sus reglas básicas, jugando miles de veces contra ellos mismos a la velocidad de la luz.

La máquina del futuro (imaginemos, el iPhone de 2030) será un dispositivo con la capacidad de cálculo de un supercomputador, conectado a bases de datos con toda la información disponible en el mundo, capaz de ver, leer y oír como un humano (entendiendo lo que ve, oye y lee); con habilidades de aprendizaje hasta el límite de la eficiencia en una tarea determinada (como jugar al ajedrez, analizar una inversión, identificar un cáncer a partir de una imagen, o detectar un estado de ánimo por la expresión facial de una persona); y capaz de interactuar (hablando o escribiendo) con inteligencia social y emocional casi humana.

Las aplicaciones de este tipo de dispositivo son infinitas. Imaginación al poder. Hoy existen algoritmos digitales que atienden consultas de alumnos en universidades, analizan inversiones, aconsejan estrategias jurídicas, diseñan logos, componen sinfonías, pintan cuadros (identificando los trazos o los ritmos de Bach o Rembrandt respectivamente, y replicándolos en nuevas combinaciones creativas), escriben noticias de actualidad, deciden titulares en periódicos, diagnostican enfermedades, o atienden a clientes en procesos de venta. Cada día aparecen noticias más sorprendentes sobre la Inteligencia Artificial: desde start-ups que ofrecen clones digitales de una persona (ver  http://eterni.me/: algoritmos que “captan” su personalidad, sus expresiones, y sus patrones de toma de decisiones y quedan almacenados para la eternidad como un avatar digital -quizá en un smartphone-, para cuando usted ya no esté), a sistemas capaces de anticipar enfermedades, o determinar orientaciones sexuales a partir de sus expresiones faciales (ver noticia aquí). China, país que ha apretado el acelerador con la vista puesta en el liderazgo mundial en esta (y otras) tecnologías, se propone desplegar sistemas ubicuos de reconocimiento facial para aplicaciones de seguridad. En China, alguien reconocerá en todo momento su cara para darle acceso a su oficina, al tren o al médico. También determinarán, en base a ella, si puede usted ser un asesino, si es homosexual, o si está sufriendo una depresión (ver aquí). El lado oscuro de la fuerza estará presente en la Inteligencia Artificial.


La revista Journal of Management Inquiry me ha publicado un artículo sobre el futuro del management en un mundo de cerebros electrónicos (ver aquí). ¿Cuál es el futuro del management (una ciencia social), en un mundo donde los humanos seamos reemplazados de forma creciente por máquinas, tanto en actividades repetitivas como específicas, cognitivas o manuales?. ¿Puede un robot dirigir una organización? ¿Puede liderar? ¿Puede emprender? El management se va a ver fuertemente impactado por estos sistemas. No sólo en aquéllos procesos de negocio más dependientes de los datos y de la optimización matemática (como la dirección de operaciones o el supply chain). También en procesos que requieran creatividad, estrategia y socialización. Alguien puede creer que la dirección estratégica, la innovación o la relación con el cliente serán las últimas reservas del management humano. Pero la fuerza de la tecnología nos presenta cada día más evidencias de que las máquinas también son capaces de desarrollar mejores estrategias, mejores diseños creativos, más innovación y mejor interacción con el cliente que los humanos. ¿Cuánto tiempo tardaremos en ver nuestros CEOs substituidos por algoritmos de machine learning?

1 de septiembre de 2017

IND+I SCIENCE: PREMIS PER LA RECERCA ORIENTADA A CATALUNYA

IND+I Viladecans (http://indi.cviladecans.cat/) és una iniciativa de l’Ajuntament de Viladecans, juntament amb la Generalitat de Catalunya, Incasòl, Delta BCN, Diputació de BCN i Àrea Metropolitana. L’objectiu: generar coneixement i opinió, debatre i liderar iniciatives sobre innovació, recerca industrial i noves tecnologies per tal de millorar la competitivitat territorial i crear impacte econòmic i social. Compta amb el suport de la Universitat de Vic- Universitat Central de Catalunya, Eurecat, EsadeCreàpolis, Pacte Industrial de la Regió Metropolitana, Deusto, Fira de Barcelona, Pla Estratègic Metropolità, CECOT, Cambra de Comerç de Barcelona i Roca Radiadors, entre d’altres.

Una de les seves iniciatives és IND+I Science. El seu objectiu és alinear la recerca existent sobre innovació per tal d’orientar-la a la generació de coneixement útil pel desenvolupament competitiu de Catalunya. Amb aquesta finalitat, l’IND+I Science llança 8 premis de recerca per propostes de tesis doctorals amb impacte sobre innovació, indústria i l’agenda de les ciutats sostenibles. La iniciativa es fa conjuntament amb l’Institute for Innovation and Public Purpose de la Dra. Mariana Mazzucato (https://www.ucl.ac.uk/bartlett/public-purpose/news/2017/jul/iipp-joins-forces-indi-launch-competition-develop-new-notions-public-value)

A Catalunya existeix talent, i es fa recerca de qualitat en l'àmbit de la innovació, la indústria i l'agenda de les ciutats sostenibles. Les universitats catalanes disposen de nombrosos grups de recerca relacionats amb aquests temes i, contribueixen de forma rellevant a les revistes científiques especialitzades d’arreu del món.
 
No obstant, aquesta producció de coneixement està atomitzada. La major part de les nostres universitats, departaments i instituts no connecten entre ells la recerca generada ni l’alineen en base a un fil o objectiu comú d’acumulació de coneixement.  Això fa que en general, la recerca no sigui directament útil per a la nostra economia i societat. Es podria dir que aquesta falta de direccionalitat general també és causada per la falta d’un encàrrec sistemàtic des de les institucions públiques i privades que podrien ser-ne usuàries. L'Institut Basc per la Competitivitat, Orkestra (DEUSTO – Govern Basc), seria un bon exemple de com es pot fer ambdues coses, amb un resultat evident pel que fa a la influència del pensament i recerca científiques sobre el disseny i la implementació de polítiques públiques de desenvolupament econòmic i territorial d’Euskadi. Es tracta de fer possible, en el cas de la innovació, la indústria i les ciutats, el que sembla moltes vegades impossible: la tercera missió de les universitats.

L'IND+I inicia aquest curs el projecte IND+I Science per a omplir aquest buit, en un moment històric de revolució tecnològica en el que moltes coses de la nostra vida i la nostra manera de consumir i produir de bens i serveis està canviant radicalment. Els 8 premis de 1.500 euros d’enguany són el primer pas per anar construint un espai - palanca de generació de coneixement que sumi tot el que ja s'està fent en aquest àmbit. Poden presentat assajos els estudiants de doctorat d’una Universitat de Catalunya o, en cas d'estudiants catalans, també de qualsevol programa de doctorat d’universitats espanyoles o estrangeres.

Per a assegurar la màxima qualitat científica i la connexió del coneixement generat a Catalunya amb el de la resta del món, l’IND+I Science compta amb la col·laboració activa de Mariana Mazzucato, ponent principal de l’última edició de la jornada IND+I, i el recentment creat Institute for Innovation and Public Purpose (University College of London) que ella dirigeix i des del que apadrina aquesta iniciativa. Aquest soci formarà part del jurat, tot prioritzant l’exploració, en els àmbits de la innovació, la indústria i les ciutats, de l’ús de conceptes i mètriques diferents de valor públic per aconseguir objectius socials i de sostenibilitat, en la línia del model d’innovació per missions proposat per ella.
 
D’altra banda, per a convocar aquests premis de recerca, l’Ajuntament de Viladecans compta amb el finançament de l’Àrea Metropolitana de Barcelona i suma de manera estratègica amb el Pla Estratègic Metropolità de Barcelona i el Pacte Industrial de la Regió Metropolitana de Barcelona, dos associacions compromeses amb el desenvolupament i la sostenibilitat del territori metropolità i amb vocació de contribuir a incentivar, divulgar i apropar  el coneixement basat en evidència científica als agents públics i privats que prenen decisions al nostre país.

Per més detalls, podeu veure aquí les bases dels premis: http://indi.cviladecans.cat/wp-content/uploads/Convo-indi-science-en.pdf. No us despisteu, el termini s’acaba el 20 d’octubre.

Xavier Ferràs i Jordi Garcia, President i Secretari del Comitè Científic IND+I



30 de agosto de 2017

COSTE MARGINAL CERO

¿Nos acercamos a una economía de coste marginal cero? Esta es la tesis que anticipaba Jeremy Rifkin hace unos años en su libro “The Zero Marginal Cost Society”. ¿El avance de la tecnología nos lleva a un modelo económico donde bienes y servicios se produzcan a coste cero? Parece que es así. La economía digital tiene naturaleza de coste marginal cero. Desarrollar un nuevo programa de software (por ejemplo, un nuevo sistema operativo) es una inversión significativa. Pero la segunda unidad es una copia digital de la primera, cuyo coste de producción es nulo. Esta característica se extiende a medida que la economía se digitaliza: realizar una superproducción cinematográfica, un nuevo single musical, o un best-seller significa una inversión en tiempo y dinero. Pero los canales digitales las distribuyen a coste cero. El coste marginal de un usuario más en Facebook es cero. El coste de formar un alumno más en un curso on-line, o a través de un MOOC es nulo. Una vez programado un sistema automático de inteligencia artificial (un “bot” -robot de voz-) para atender al alumno en una universidad, para recibir quejas del cliente en un call center, o para asesorar clientes on-line en una entidad bancaria, el coste de un servicio adicional (una nueva consulta) es cero. Y, el sistema puede atender miles, o cientos de miles de consultas simultáneas. Cuando tengamos sistemas de asesoramiento personalizado basados en inteligencia artificial (en medicina o derecho, por ejemplo) dispondremos de médicos o abogados a coste cero. Cuando se popularicen los avatares digitales interactivos, el coste de un profesor digital, o de un responsable de ventas digital con capacidad cognitiva casi humana será cero. El coste de un transportista será cero cuando se extiendan los algoritmos de conducción automática: el primer algoritmo de, por ejemplo, un nuevo modelo de Tesla tendrá un coste de desarrollo muy elevado. Pero el mismo algoritmo podrá ser distribuido digitalmente, a coste cero, a todos los vehículos de Tesla. Y, a medida que dichos algoritmos aprendan de su experiencia (machine learning), transmitirán sus conocimientos (se actualizarán las versiones de software) a coste cero al conjunto de vehículos Tesla, haciéndolos más y más eficientes

La presión hacia el coste cero no sólo se debe a la naturaleza de los sistemas digitales. Los propios sistemas digitales hacen más eficiente la competencia económica y la disponibilidad de información en otros sectores. Por ejemplo, mediante sistemas de economía colaborativa. La presión hacia el coste cero se ejerce también mediante agresiva innovación de procesos o mediante operaciones corporativas y brutales economías de escala (es interesante ver cómo Whole Foods, cadena de supermercados orgánica, posicionada en el segmento premium está bajando precios por debajo de la cadena de descuento Walmart, tras la compra de la primera por Amazon). Y la propia revolución tecnológica genera una potente deflación en los productos. La tecnología, con ciclos de desarrollo cada vez más cortos, es una increíble fuerza deflactora (reductora de precios): un producto tecnológico de nueva gama pierde buena parte de su valor inmediatamente después de su compra, obsoletado inmediatamente por nuevas generaciones de producto.

El fenómeno se extiende más allá de los sectores de naturaleza nativa digital. No sólo el procesado de bits tiende al coste marginal cero: también el procesado de átomos o de células. La impresión 3D permite, en manufacturing, avanzar hacia un modelo de producción doméstica, en el cual, a partir del plano digital, y disponiendo del material, la fabricación de una nueva pieza tenga coste marginal cero. Laboratorios biológicos son capaces de tratar información genética (con principios y soportes digitales), para desarrollar alimentos artificiales (genéticamente idénticos a los originales) a partir de células madre, virtualmente de la nada. La materia y la energía se tratarán de forma creciente y cada vez más eficiente, a partir de información digitalizada, transfiriendo los principios de la digitalización a productos físicos y sistemas biológicos.

Todo ello genera una gran paradoja en el capitalismo: para la economía ortodoxa, en un sistema perfectamente competitivo, el ingreso marginal iguala el coste marginal. Pero si el coste marginal es cero, ¿cómo generar ingresos marginales? Y, aún más, ¿cómo mantener márgenes empresariales?. En términos de estrategia competitiva: ¿cómo competir con alguien que es capaz de generar productos y servicios a coste cero? En términos socioeconómicos: ¿cómo mantener una economía de bienes y servicios gratuitos, cuya producción no genera costes (tampoco costes salariales)? Se abren escenarios tan utópicos como escalofriantes.



21 de agosto de 2017

LA ECONOMÍA DE LA ABUNDANCIA

India ha decidido substituir el despliegue de 14 GWatts de energía térmica por energía solar. Renuncia a seguir quemando carbón, ante el exponencial incremento de eficiencia de la tecnología solar y la caída en picado de su precio, a niveles hasta hace poco considerados imposibles. En Alemania, los récords de obtención de energía limpia se suceden: durante tres días de mayo, el 85% de la electricidad consumida provino de fuentes renovables. En 2016 ya había conseguido que la totalidad de su energía, por un día, fuera renovable, algo que podría ser habitual en 2030. Son hitos limitados, pero que apuntan a un futuro esperanzador. El progreso de la energía solar sigue la llamada “ley de Swanson”: su precio cae un 20% cada vez que la producción mundial se duplica. Incluso en la América de Trump, las renovables han superado en suministro eléctrico a la energía nuclear, y los estados más innovadores, como California y Massachusetts plantean alimentarse íntegramente de energías renovables en 2045 y 2050, respectivamente.

Sorprendentemente, avanzamos hacia un escenario de abundancia energética. Un mundo de energía casi infinita, a coste casi cero, es factible. El acelerado progreso tecnológico rompe las barreras de lo imaginable hasta hace muy poco. Y es que la tecnología es una increíble fuerza liberadora de recursos. En 1870, sólo el inmensamente rico rey de Siam disponía de cubiertos de aluminio, un recurso más escaso (y más caro) entonces que el oro. Hasta que dos químicos, Halt y Heroult, descubrieron el proceso de síntesis de aluminio a partir de la bauxita (uno de los minerales más abundantes de la tierra), haciendo su uso asequible a todo el mundo. La ciencia y la tecnología hacen posible lo imposible.

Hoy se suceden avances insólitos, que hace sólo 25 años hubieran parecido ciencia-ficción. Disponemos de información infinita e instantánea a coste cero (internet). Posibilidades gratuitas de localización avanzada por satélite (vía GPS) y mapas detallados de cualquier parte del mundo (Google Earth). Comunicaciones móviles ubicuas. Almacenamiento de memoria y proceso de datos casi ilimitado. Ocio digital inacabable (vídeos, música, juegos, libros, fotografía). Interacción social digital gratuita sin límites (Facebook). Tenemos en nuestras manos una inimaginable abundancia de datos para procesar, progresar, aprender, e interactuar, a coste cero. Y la revolución tecnológica extiende la abundancia a otros campos. La síntesis artificial de alimentos avanza decididamente hacia la generación de comida infinita, creada en laboratorio, a partir de células madre, a coste exponencialmente decreciente. ¿Chocante? El propio Winston Churchill ya predijo en 1931 que la humanidad “se liberaría de la absurdidad de hacer crecer pollos enteros para alimentarse”. La primera hamburguesa artificial, generada a partir de células de vaca vio la luz en 2013. Costó 325.000 $. Hoy se producen ya por 11 $ la unidad. En pocos años su precio se reducirá significativamente por debajo de las hamburguesas convencionales y entrarán masivamente en el mercado. La carne sintética es genéticamente idéntica a la original, pero creada sin animales. Sin granjas. Sin coste medioambiental. Sin deforestación y sin consumo masivo de agua como requiere la producción tradicional. La carne artificial no contiene antibióticos, ni bacterias. Se utiliza un 99% menos de espacio, un 96% menos de agua, y se eliminan las emisiones de CO2 animal (una de las principales causas de contaminación mundial). Se prepara una disrupción a gran escala en el sector de la alimentación: en pocos años, miles de silenciosos laboratorios alimentados por energía solar fabricarán filetes de cerdo, pollo o vaca, de la nada, a coste marginal cero.

Quizá Malthus estaba equivocado: en lugar de superpoblación y escasez de recursos, el futuro puede ser de equilibrio demográfico y abundancia. Las sociedades, a medida que se incorporan a economías avanzadas y acceden a sanidad y educación, frenan sus tasas de fertilidad. Pronto, sólo crecerá África, el gran problema latente. Japón, de hecho, es un país muy viejo. Europa y EEUU envejecen. Incluso las poblaciones de China y Latinoamérica dejan de crecer demográficamente. Con todo ello, podemos ser optimistas. Pese a nuestra adicción a las malas noticias, vivimos en el mejor de los tiempos posible. Según The Guardian, la proporción de población mundial en extrema pobreza ha caído por debajo del 10% por primera vez. La mortalidad infantil es la mitad que la de 1990, y 300.000 nuevas personas acceden a electricidad cada día. La alfabetización ya alcanza el 85% de la población mundial. Y hemos creado más conocimiento científico en las dos últimas generaciones que en las 10.000 que las precedieron. Si dejamos que la fuerza de la tecnología siga actuando, podemos aspirar a un futuro esperanzador, en el que la riqueza de los países no dependa de pozos de petróleo, sino de su talento y de la fuerza del sol; y en el que alimentación, información, energía, educación, y sanidad se produzcan a coste marginal cero, y su acceso sea, por tanto, universal.

Quizá las turbulencias económicas y políticas que sufrimos sean los síntomas de la convergencia global hacia un nuevo modelo económico, la paradójica transición a una economía de   abundancia y coste marginal cero, que no comprendemos y que deberemos aprender a gestionar. De hecho, los principios económicos a los que estamos acostumbrados se sustentan en hipótesis de escasez y competencia por recursos limitados. El principal reto de los años venideros es acelerar el ritmo de tránsito hacia esta economía de la abundancia, incrementando las inversiones en I+D, y generando los mecanismos distributivos para extender la riqueza tecnológica a todo el planeta.

(Artículo publicado originalmente en La Vanguardia, el 20/08/2017)


17 de agosto de 2017

LA PARADOJA DE POLANYI

Sabemos mucho más de lo que podemos explicar. Esta es la famosa “paradoja” de Polanyi, economista austríaco que se dio cuenta de la existencia de conocimiento humano imposible de explicitar. Podemos hacer infinidad de cosas, pero no somos capaces de explicar con claridad cómo las hacemos. Por ejemplo, ¿cómo diferenciar un perrito de una magdalena en la foto adjunta (“muffins or puffins”)? ¿Podríamos explicitar en una serie de reglas codificables cuándo nos encontramos ante una magdalena o ante una adorable mascota? O, por ejemplo, ¿qué mecanismos nos llevan a identificar una silla? ¿Podría un ordenador identificar una silla? Si le diéramos instrucciones precisas de qué es una silla (mediante conocimiento codificado: “instrumento de cuatro patas, tabla plana y respaldo”), inevitablemente se equivocaría en múltiples casos: hay sillas sin respaldos, sillas de tres patas, e infinidad de objetos que parecen sillas pero no lo son. Si aceptamos que las sillas pueden no tener respaldo, ¿cómo diferencia un ordenador una silla de una mesa? La única manera: haber visto muchas sillas. El conocimiento tácito se basa en la experiencia

K.Zak, de
https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence
Cuando reconocemos la especie de un grupo de pájaros en vuelo por la forma de moverse, cuando realizamos los movimientos precisos para romper un huevo en el canto de una taza para hacer una tortilla, o cuando identificamos la cara de un conocido, después de años sin verlo, pese a sus cambios evidentes, estamos utilizando conocimiento tácito. Lo tenemos, pero no sabemos cómo expresarlo. Ni mucho menos, cómo codificarlo en instrucciones precisas. Un conocimiento que, bajo los métodos clásicos de programación, no ha podido transmitirse a un sistema informático, y que ha sido una gran reserva de trabajo cognitivo humano.

La inteligencia artificial está cambiando el paradigma de funcionamiento de las máquinas en la medida que está rompiendo la frontera del conocimiento tácito. Hasta hace poco, un programa informático sólo era la expresión ordenada de conocimiento codificable (explícito). Sus programadores identificaban una secuencia de rutinas, las codificaban en un software, y el procesador ejecutaba exactamente aquello que estaba explicitado en las líneas de programación. El ordenador reproducía aquello que sabían (y habían escrito en líneas de código) sus programadores. Eso sí, con una potencia de cálculo y velocidad de ejecución infinitamente superiores a las humanas. Pero muchas tareas habituales, tanto cotidianas como complejas, no podían ser informatizadas porque no conocíamos las instrucciones explícitas. Se sustentaban en conocimiento tácito.

Hoy, la estrategia de desarrollo de programas informáticos ha cambiado de forma revolucionaria bajo el prisma de la inteligencia artificial. Las máquinas no son programadas de forma “lineal”, como antiguamente, sino que son capaces de aprender de la experiencia, desde cero, y reprogramarse a sí mismas para ser cada vez más eficientes en la consecución de un logro. Es lo que ha venido a llamarse “machine learning”, tecnología sustentada en redes neuronales artificiales que simulan el cerebro humano. AlphaGo, el algoritmo de inteligencia artificial que ha derrotado ya por dos veces a los sucesivos campeones mundiales de Go (en 2016 y 2017) aprendió por sí mismo, desde la nada. Se le marcaron las restricciones (reglas de juego: qué movimientos podía realizar y cuáles no), el objetivo (condiciones en que se gana la partida), y se le entrenó observando miles de partidas reales, y jugando otras tantas contra sí mismo. Hasta que desarrolló autónomamente, mediante prueba y error, un nivel de conocimiento tácito, dotado de una cierta intuición lógica, que lo hizo invencible.

Las máquinas ya desarrollan conocimiento tácito propio en base a la experiencia. A partir de este momento, lo que puede suceder es absolutamente apasionante. Las aplicaciones en negocios, en medicina, en derecho, o en educación, son inimaginables. Quizá su coche, o la puerta de su casa, le reconocerán mediante visión artificial abrirán en cuanto se aproxime. Quizá las técnicas de venta se modulen en función de la expresión facial del cliente (detectando su predisposición a comprar). Pronto podrá hacer una foto con su móvil de una mancha inquietante en la piel, para detectar inmediatamente si puede ser un cáncer o no. O de un insecto que encuentre en el bosque, para conectar con Wikipedia y explicarle qué es a su hijo.

Se espera una gran aceleración del progreso humano guiada por las aplicaciones de la inteligencia artificial en ciencia. Según uno de los fundadores de Deep Mind, la empresa comprada por Google que desarrolló AlphaGo, el último hombre capaz de acumular todo el conocimiento de su época fue Leonardo da Vinci. Hoy, la solución a problemas científicos difícilmente pueda concretarse con la simplicidad y brillantez de unas pocas ecuaciones, como pudo hacer Newton. En la era del Big Data, la conexión global y los sistemas complejos, el avance de la ciencia requiere de instrumentos mucho más potentes. Y la inteligencia artificial nos los ofrece: las máquinas son capaces de intuir patrones y de formular hipótesis ante la observación de fenómenos complejos. Pueden hacer visible lo invisible a ojos humanos. Robots investigando, sistemáticamente, 24 horas al día, haciendo avanzar de forma desbordante la frontera del conocimiento. Las implicaciones para el avance de la ciencia pueden ser inconmensurables.

Sin embargo, se nos presentan algunas inquietudes: en primer lugar, una duda casi filosófica ¿cómo codificar el conocimiento tácito ganado por las máquinas? En la medida en que los sistemas aprenden de sí mismos y se auto-programan, el programador humano pierde el control de lo que ocurre y no es capaz de comprender los outputs de la máquina. No sabemos cómo razonan. Tampoco podemos llegar a comprender, en caso de errores, por qué se producen (ni corregirlos). Las máquinas generan conocimiento tácito, pero éste sigue siendo tácito: no pueden explicitarlo ni transmitirlo a los humanos. Dispondremos de sistemas capaces de resolver problemas complejos, pero quizá no lleguemos a saber cómo los resuelven. La paradoja de Polanyi seguirá siendo válida: en este caso, las máquinas sabrán más de lo que nos explicarán.


En segundo lugar, si realmente estamos en la frontera de una nueva (y quizás definitiva) revolución de conocimiento, la explotación sistemática del conocimiento tácito, ¿quién puede ser el ganador en términos económicos de este juego? Con toda seguridad, aquellas compañías que ya se sitúen en la frontera digital, y que ya esté apostando decididamente por la inteligencia artificial: los gigantes digitales americanos (Facebook, Google, Apple, Microsoft, IBM…). Pero también las grandes corporaciones chinas (Alibabá, Baidu, Tencent…). Las implicaciones geoestratégicas en el liderazgo mundial serán críticas.

(Para más información, ver el excelente artículo de HBR: The Business of Artificial Intelligence https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence)

13 de agosto de 2017

LOS FUNDAMENTOS DE LA ESTRATEGIA

Hoy en día, en el mundo corporativo, tenemos una sobredosis de "estrategia" (como también de "innovación"). La estrategia se ha vulgarizado, de una forma incluso más ostentosa y evidente que la innovación. Un concepto que debería considerarse sacrosanto en toda organización, la estrategia (el máximo exponente de la práctica directiva) es un término que aparece en cualquier parte: planes estratégicos, políticas estratégicas (lo que es un oxímoron -las políticas no pueden ser estratégicas porque, precisamente, derivan de la estrategia: o son políticas o son estrategia-), acciones estratégicas, estrategia de calidad, estrategia financiera, márketing estratégico, operaciones estratégicas… Cuando queremos incidir en la importancia de cualquier acción corporativa, sólo basta calificarla de "estratégica".

La estrategia es la esencia de la competición, la propuesta de valor maestra que genera ventajas competitivas que nos permiten superar a los rivales. La estrategia se basa en una idea original seguida de una secuencia de actuaciones explicitadas o no, coherentes y consecuentes entre ellas. La estrategia se concreta en movimientos focalizados, que concentran fuerzas en una maniobra o serie de maniobras (de desarrollo de producto, de despliegue logístico, de generación de marca, de captura de nuevos mercados geográficos, de dominio de una tecnología avanzada...) que permite a la organización diferenciarse y superar  de forma sostenida los resultados de los competidores (en crecimiento de mercados, en productividad, en retorno de la inversión…). Diseñar la estrategia supone tomar decisiones. Concentrar recursos (humanos y financieros) en algunos ámbitos (y retirarlos, por tanto, de otros) para enfocar la energía organizativa en ese conjunto de actuaciones que nos diferenciarán. Una buena estrategia pasa por detectar la oportunidad del entorno, y movilizar decididamente el grueso de los recursos disponibles en desarrollar dicha oportunidad. Una buena estrategia confronta fortalezas con oportunidades, aprovecha las competencias y capacidades existentes, concentra recursos en el momento, segmento de mercado y punto de la cadena de valor oportunos, y genera con ello un efecto palanca en la competitividad de la empresa.

¿Qué NO es estrategia? Desde luego, no es estrategia un simple listado de intenciones (“ser el líder global en distribución de productos de consumo”) ni un glosario de objetivos ambiciosos (“nuestra estrategia es conseguir un crecimiento sostenido anual mínimo del 10%, manteniendo rentabilidades sobre activos superiores a la media del sector”). Tampoco es estrategia un petulante y superficial ejercicio de idealismo (“crear un mundo sostenible mediante la introducción de biocombustibles de última generación tecnológica”), de definición de misión (“generar valor al accionista a través de experiencias superiores de consumidor”), ni de concreción de valores (“nuestra estrategia es la innovación –¡esta palabra no puede faltar! y el comportamiento ético y responsable" -¡pues claro!). No es un brindis al sol, ni tampoco es un simple plan operativo o plan de negocio que nos describa cuáles van a ser nuestras ventas y qué recursos operativos y financieros vamos a destinar a conseguirlas ¿Qué justifica, en última instancia, esos números?  ¿Cuál es la naturaleza de nuestro enfoque competitivo para conseguir esos objetivos? ¿Se van a quedar quietos, nuestros competidores, mientras nos hacemos con el mercado?. La estrategia no es un Power Point de bonitos gráficos inspiradores, ni un Word de grandilocuentes visiones y misiones, ni un Excel de detallados objetivos de microgestión.

La estrategia en negocios, como subscribiría Clausewitz en la guerra, es un concepto sutil, fluido y energético a la vez. Es el diseño nuclear del planteamiento competitivo, que, como en un campo de batalla, se desplaza y cambia dinámicamente allá donde existan oportunidades de concentrar fuerzas y flanquear o desbancar las líneas enemigas (en business, oportunidades de diferenciarnos). La estrategia consta de un análisis certero de la realidad (diagnosis), de una propuesta diferencial de valor (ahí es donde entra la innovación), y de un plan de actuaciones flexible, consecuente y coherente. Y, como en la guerra, a menudo, sólo está en la mente del general. De hecho, la estrategia competitiva, si realmente es estrategia, jamás se debería explicar en memorias corporativas ni hacerse evidente al rival…

(Si se hace, entonces, como dice Richard Rummelt en su libro Good Strategy, Bad Strategy, es que no es estrategia… En sus palabras, es un “fluff” ;-)