El caso de la reinvención digital, por McKinsey

Este artículo de Jacques Bughin, Laura LaBerge y Anette Mellbye publicado en la edición de febrero de 2017 de McKinsey quarterly trata de lo mucho que le queda por hacer a la industria en materia de transformación digital y la mejor forma de enfrentarse a la presión que la digitalización impondrá sobre los ingresos y los beneficios.

El caso de la reinvención digital

La tecnología digital, a pesar de su aparente omnipresencia, sólo ha empezado a penetrar en las industrias. A medida que continúa su avance, las implicaciones para los ingresos, beneficios y oportunidades serán extraordinarias.

A medida que emergen nuevos mercados, los nichos de beneficio cambian y las tecnologías digitales ganan terreno en la vida cotidiana, es fácil suponer que la digitalización de la economía está ya muy avanzada. De acuerdo con nuestra más reciente investigación, sin embargo, las fuerzas digitales todavía tienen que convertirse en la corriente principal. En promedio, las industrias están digitalizadas menos de un 40%, a pesar de la relativamente profunda penetración de estas tecnologías en medios, minoristas y alta tecnología.

A medida que la digitalización penetra más completamente, estropeará los ingresos y el crecimiento de algunos, especialmente, el cuartil inferior de las empresas, según nuestra investigación, mientras que el cuartil superior captura ganancias desproporcionadas. Las estrategias digitales audaces, estrechamente integradas serán el mayor factor diferencial entre las empresas que ganen y las que no, y las mayores retribuciones irán a los que inicien las rupturas digitales. Los seguidores rápidos con excelencia operacional y una excelente salud organizativa no les seguirán de muy lejos.

Continue reading →

Anuncios

Nunca (jamás) te bajes apps de Android Apps fuera de Google Play

Un artículo de WIRED sobre seguridad nos recuerda otras de las muchas maneras que tenemos de pifiarla y hacernos daño (o exponernos a que nos lo hagan) si no seguimos unas elementales normas de prudencia. Aún así, aunque tomemos todas las precauciones somos vulnerables. Por lo menos no se lo facilitemos.

Nunca (jamás) descargues apps fuera de Google Play

Esta semana, unos investigadores revelaron que una oleada de malware golpeó a al menos 1.3 millones de teléfonos Android, robando datos de usuarios como parte de una maquinación para potenciar los ingresos por publicidad. Llamada “Gooligan”, se coló en esos dispositivos de la forma en que muchos de esos ataques a gran escala en Android lo hacen: a través de una app. Concretamente, una app que la gente se descargó fuera de los confortables confines de la Google Play Store.

El fin de las teorías: El Diluvio de Datos hace obsoleto al método científico

Me encanta el tono grandilocuente de este artículo de Chris Anderson en wired (2008!). Lo traduzco seguidamente.

El fin de las teorías: El Diluvio de Datos hace obsoleto al método científico

Todos los modelos son erróneos, pero algunos son útiles”.

Eso proclamaba el estadístico George Box hace 30 años, y tenía razón. ¿Pero teníamos otra elección? Sólo los modelos, desde las ecuaciones cosmológicas hasta las teorías sobre el comportamiento humano, parecían capaces de explicar, con coherencia aunque imperfectamente, explicar el mundo que está a nuestro alrededor. Hasta ahora. Empresas como Google, que han crecido en una era de datos inmensamente abundantes, no tienen que conformarse con modelos erróneos. Es más, no tienen por qué conformarse con modelos en absoluto.

Hace sesenta años, los ordenadores digitales hicieron la información legible. Veinte años más tarde, Internet la hizo accesible. Hace diez años, los primeros motores de búsqueda lo convirtieron en una única base de datos.

Ahora Google y empresas de parecido pensamiento están escudriñando la edad más medida de la historia, tratando ese inmenso corpus como un laboratorio de la condición humana. Son los niños de la Era del Petabyte.

peta8

La Era del Petabyte es diferente por que más es diferente. Los kilobytes se almacenaban en discos flexibles. Los megabytes se almacenaban en discos duros. Los terabytes se almacenaban en matrices de discos. Los petabytes se almacenan en la nube. A medida que recorrimos esa progresión, fuimos desde la analogía de la carpeta a la analogía del archivador y a la analogía de la biblioteca a -bueno, en los petabytes nos hemos quedado sin analogías organizativas.

En la escala del petabyte, la información no es sólo cuestión de orden y taxonomías tri -y tetra- dimensionales, sino de estadísticas dimensionalmente agnósticas. Esto exige un enfoque totalmente distinto, uno que requiere que perdamos la atadura de los datos como algo que puede visualizarse en su totalidad. Nos fuerza a ver los datos matemáticamente primero y establecer un contexto para ellos después.

Por ejemplo, Google conquistó el mundo de la publicidad con nada más que matemáticas aplicadas. No fingía saber nada de la cultura y las convenciones de la publicidad -solo supuso que mejores datos, con mejores herramientas analíticas, asegurarían el éxito. Y Google tenía razón.

La filosofía fundamental de Google es que no sabemos por qué esta página es mejor que aquella: si las estadísticas de enlaces entrantes dicen que lo es, con eso basta. No hace falta ningún análisis causal ni semántico. Por eso Google puede traducir idiomas sin realmente “hablarlos” (a igualdad de cuerpos de datos, Google puede traducir del klingon al farsi tan fácilmente -y con tantos errores, dirán mis amigos traductores- como del francés al alemán). Y por eso puede emparejar anuncios con contenidos sin ningún conocimiento ni hipótesis sobre los anuncios o el contenido.
Durante su intervención en la Conferencia de tecnologías emergentes de O’Reilly el pasado marzo, Peter Norvig, el director de investigación de Google ofreció una actualización de la máxima de George Box: “Todos los modelos son erróneos, y cada vez más puedes acertar sin ellos”.

Este es un mundo donde enormes cantidades de datos y las matemáticas aplicadas sustituyen a todas las demás herramientas que podrían usarse. Fuera todas las teorías sobre el comportamiento humano, desde la lingüística a la sociología. Olvida la taxonomía, la ontología y la psicología. ¿Quién sabe por qué la gente hace lo que hace? El caso es que lo hacen, y podemos monitorizarlo y medirlo con una fidelidad sin precedentes. Con datos suficientes, los números hablan por sí mismos.

El gran objetivo de esto no es la publicidad. Es la ciencia. El método científico está construido sobre hipótesis verificables. Estos modelos, en su mayoría, son sistemas visualizados en la mente de los científicos. Los modelos se comprueba, y los experimentos confirman o desmienten los modelos teóricos sobre cómo funciona el mundo. Así ha funcionado la ciencia durante cientos de años.

Los científicos están entrenados para reconocer que la correlación no implica causa, que no se deberían extraer conclusiones simplemente sobre la base de la correlación entre X e Y (podría ser sólo una coincidencia). En lugar de eso, debes comprender los mecanismos subyacentes que conectan a los dos. Una vez  que tienes un modelo, puedes conectar los conjuntos de datos con toda confianza. Los datos sin un modelo son sólo ruido.

Pero al enfrentarse a enormes conjuntos de datos, este acercamiento a la ciencia -hipótesis, modelo, prueba – se está volviendo anticuado. Pensemos en la física. Los modelos newtonianos eran crudas aproximaciones a la verdad (erróneos a nivel atómico, pero aún así útiles).

newton2bfin2bde2blos2btiempos

Cien años más tarde, la mecánica cuántica basada en estadísticas ofreció una mejor imagen – pero la mecánica cuántica es otro modelo más, y como tal, también defectuoso, sin duda una caricatura de una realidad subyacente más compleja. La razón por la que la física ha derivado en especulaciones teóricas sobre grandiosos modelos unificados n-dimensionales durante las últimas décadas (la fase “bonita historia” de una disciplina hambrienta de datos) es que no sabemos cómo realizar los experimentos que podrían desmentir las hipótesis – las energías son excesivas, los aceleradores demasiado caros y así sucesivamente.

Ahora la biología se está orientando en la misma dirección. Los modelos que nos enseñaban en la escuela sobre genes “dominantes” y “recesivos” conduciendo un proceso estrictamente mendeliano han resultado ser una simplificación de la realidad aún mayor que las leyes de Newton. El descubrimiento de interacciones entre genes y proteínas y otros aspectos de la epigenética han desafiado la visión del ADN como una predestinación y han incluso presentado evidencias de que el ambiente puede influir en los rasgos hereditarios, algo considerado en el pasado como una imposibilidad genética. En resumen, cuanto más aprendemos sobre biología, más lejos nos encontramos de un modelo que la pueda explicar.

245px-gregor_mendel_2

Ahora hay un camino mejor. Los Petabytes nos permiten decir: “Con la correlación basta”. Podemos dejar de buscar modelos. Podemos analizar los datos sin hipótesis sobre lo que podrían mostrar. Podemos lanzar los números a los mayores superordenadores que el mundo haya visto jamás y dejar que los algoritmos estadísticos busquen los patrones que la ciencia no puede encontrar.

El mejor ejemplo práctico de esto es la ametralladora de secuencia genes ideada por J.Craig Venter. Capacitado por secuenciadores de alta velocidad y superordenadores que analizan estadísticamente los datos que producen, Venter paso de secuenciar organismos individuales a secuenciar ecosistemas enteros. En 2003, empezó a secuenciar gran parte del océano, siguiendo los pasos del viaje del capitán Cook. Y en 2005 empezó a secuenciar el aire. En el proceso, descubrió miles de especies antes desconocidas de bacterias y otras formas de vida.

Si las palabras “descubrir una nueva especie” te hacen pensar en Darwin y en dibujos de pinzones, puede que estés atascado en la antigua forma de hacer ciencia. Venter apenas puede decirte nada sobre las especies que ha encontrado. No sabe qués aspecto tienen, cómo viven o casi nada más sobre su morfología. Ni siquiera tiene su genoma entero. Todo lo que tiene es una anomalía estadística – una secuencia única que, al ser diferente de cualquier otra secuencia en la base de datos, debe representar una nueva especie.

Esta secuencia puede correlar con otras secuencias que se parecen a las de especies sobre las que sabemos algo más. En ese caso, Venter hace algunas suposiciones sobre los animales – que convierten el sol en energía de una manera particular, o que descienden de un antepasado común. Pero aparte de eso, no tienen un modelo mejor de estas especies que el que Google tenga de tu página de MySpace. Sólo son datos. Analizándolos con los poderosos recursos de computación de Google, sin embargo, Venter ha avanzado la biología más que ningún otro en su generación.

Esta forma de pensar está a punto de convertirse en lo normal.En febrero, la National Science Foundation anunció el Cluster Exploratory, un programa que financia la investigación diseñada para ejecutarse sobre una plataforma distribuida de computación a gran escala desarrollada por Google e IBM en equipo con seis universidades piloto. El racimo (cluster) consistirá en 1600 procesadores varios terabytes de memoria, y cientos de terabytes de almacenamiento, junto con el software, incluyendo el Tivoli de IBM y versiones de código abierto de Google File System y MapReduce.

Los primeros proyectos de CluE incluirán simulaciones del cerebro y el sistema nervioso y otras investigaciones biológicas que están en algún sitio entre el wetware y el software.

Aprender a usar un “ordenador” de estas dimensiones puede ser un reto. Pero la oportunidad es excelente: La nueva disponibilidad de enormes cantidades de datos, junto con las herramientas estadísticas para estrujar estos números, ofrece una forma enteramente nueva de comprender el mundo. La correlación supera a la causalidad, y la ciencia puede avanzar incluso sin modelos coherentes, teorías unificadas o en realidad sin ni siquiera ninguna explicación mecanicista.

No hay ninguna razón para aferrarnos a nuestra antigua forma de hacer las cosas. Es la hora de preguntarse: ¿Qué puede aprender la ciencia de Google?

Smart Fiets optimiza el parque de bicicletas de Amsterdam

Os enlazo aquí un artículo de Guille Mas sobre otro logro de City Makers, Smart Fiets. Han aparecido en un periódico de tirada nacional con esta iniciativa innovadora para optimizar la gestión del parque de bicicletas de Amsterdam, que algunas bicicletas tiene, así como una vocación de anular sus emisiones de gases de efecto invernadero (GEI) a la atmósfera en 2025. No es una pica en Flandes, pero poco le falta. Enhorabuena!

Twitter según Berto Romero

Ayer estuve viendo un vídeo Late Motiv, y en su consultorio Berto Romero hizo una definición / metáfora de Twitter que me hizo carcajearme un buen rato:

Un libro de conjuros de la búsqueda con Google

Los australianos de la compañía  de SEO supple han publicado una sencilla y potente hoja de trucos para refinar consultas en este link.

Aparte del clásico de poner el texto literal que quieres encontrar entre comillas, o el operador site: para limitar los resultados a una determinada página web, hay toda una gama de modificadores que permiten especializar tus búsquedas hasta lo indecible.

Si unes esto a tus Google alerts, por ejemplo, te puedes llevar a tu correo informes diarios sobre tu marca, la de la competencia, sobre tu especialidad o las aficiones de tu pareja o tus hijos. Puedes hacer limpieza de los links rotos de tu página web o enterarte de los que se ha publicado en los últimos 3 días sobre tu película preferida.

City Makers en Startup Europe Week Alicante – Guillermo Mas

Guille Mas nos cuenta en su blog su participación en la semana de las startups celebrada en Alicante.