Maneras de afrontar los riesgos de la inteligencia artificial, según McKinsey

En este enlace hay un artículo de Benjamin Cheatham, Kia Javanmardian y Hamid Samandari para McKinsey sobre la inteligencia artificial, sobre sacar más partido que perjuicio de aplicarla, con los riesgos que conlleva.

Joaquin Phoenix se enamoró de un bicho IA que además le era infiel con otro montón de humanos sometidos a la IA en Her (Spike Jonze, 2013). Fuente: FilmAffinity

Cómo enfrentarse a los riesgos de la inteligencia artificial

Por Benjamin Cheatham, Kia Javanmardian y Hamid Samandari

Un gran poder implica una gran responsabilidad. Las organizaciones pueden mitigar los riesgos de aplicar la inteligencia artificial y la analítica avanzada haciendo suyos tres principios.
Recurso descargable (Artículo en PDF – 670KB)

La inteligencia artificial (AI, por sus siglas en inglés) está demostrando ser una espada de doble filo. Mientras que esto puede decirse de la mayoría de las nuevas tecnologías, los dos filos de la AI son mucho más afilados, y ninguno de los dos se ha entendido bien.

Hablemos en primer lugar de lo positivo. Estas tecnologías están empezando a mejorar nuestras vidas de mil maneras, desde simplificar nuestras compras hasta realzar nuestras experiencias de cuidado de la salud. Su valor para el negocio también se ha hecho innegable: casi el 80 por ciento de los ejecutivos de las empresas que están desplegando la AI recientemente nos han dicho que ya están viendo un valor moderado en ello. Aunque el uso extendido de la AI en los negocios está todavía en su infancia y quedan pendientes preguntas sobre el ritmo del progreso, así como la posibilidad de alcanzar el santo grial de la «inteligencia general», el potencial es enorme. La investigación de McKinsey Global Institute sugiere que en 2030, la AI podría arrojar un resultado económico adicional global de 13 millardos de dólares al año.

Sin embargo, aunque la AI genera beneficios para los consumidores y valor de negocio, también está haciendo aflorar un conjunto de consecuencias no deseadas, incluso graves. Y aunque en este artículo nos estamos centrando en la AI, estos impactos (y las formas de prevenirlos o mitigarlos) se aplican por igual a toda la analítica avanzada. Los más visibles, que incluyen violaciones de la privacidad, discriminación, accidentes y manipulación de sistemas políticos son más que suficientes para requerir precaución. Aún más preocupantes son las consecuencias que todavía no se han conocido o experimentado. Cabe la posibilidad de repercusiones desastrosas -incluyendo la pérdida de vidas humanos, si un algoritmo médico de AI falla, o riesgos sobre la seguridad nacional, si un adversario introduce desinformación a un sistema de AI militar- al igual que de desafíos significativos para las organizaciones, como el daño a la reputación de la compañía, pérdidas de ingresos o reacciones normativas nefastas, investigaciones criminales y una reducción de la confianza del público.

Como la AI es una fuerza relativamente nueva en los negocios, pocos líderes han tenido la oportunidad de afinar su intuición sobre el alcance completo de los riesgos societarios, organizativos e individuales, o de desarrollar un conocimiento práctico de las palancas que lleva asociadas, que van desde los datos que se le suministran a los sistemas AI hasta la operación de modelos algorítmicos y las interacciones entre los humanos y las máquinas. A consecuencia de esto, los ejecutivos suelen pasar por alto los peligros potenciales («No estamos utilizando la AI en nada que podría ‘reventar’, como coches autónomos») o sobrevalorar la capacidad de mitigar riesgos de una organización («Hemos estado haciendo analítica mucho tiempo, así que ya tenemos los controles correctos deseplegados, y nuestras prácticas están alineadas con las del resto del sector»). También es frecuente entre los líderes agrupar indiscriminadamente los riesgos de la AI con otros que son competencia de especialistas de TI y analítica («Confío en mi equipo técnico: están haciendo to lo posible para proteger a nuestros clientes y nuestra empresa»).

Los líderes que aspiran a evitar, o al menos mitigar, las consecuencias indeseadas deben tanto construir sus habilidades de reconocimiento de patrones con respecto a los riesgos de la AI como comprometer a toda la organización para que esté lista para acoger el poder y la responsabilidad asociados con la AI. El nivel de esfuerzo necesario para identificar y controlar todos los riesgos clave excede las normas previamente existentes en la mayoría de las organizaciones. Hacer progresos significativos exige un planteamiento multidisciplinar que involucre a los líderes del comité de dirección y todos los ámbitos de la empresa; a expertos en áreas que van desde jurídico y riesgos hasta TI, seguridad y analítica, y gerentes que puedan asegurar que se mantiene la vigilancia en todos los frentes.

Este artículo intenta ayudar ilustrando, en primer lugar, un conjunto de peligros que es fácil pasar por alto. A continuación presenta esquemas de trabajo que ayudarán a los líderes a identificar sus mayores riesgos y a implementar la amplitud y profundidad de controles matizados que hacen falta para evitarlos. Por último, proporciona un primer vistazo a algunos esfuerzos del mundo real que están actualmente en marcha para abordar los riesgos de la AI por medio de la aplicación de estos planteamientos.

Antes de continuar, queremos subrayar que nuestro enfoque aquí está centrado en las consecuencias de primer orden que surgen directamente del desarrollo de soluciones de IA, de su mal uso (inadvertido o intencionado), o del manejo incorrecto de las entradas de datos que las impulsan. Hay otras consecuencias importantes, entre las cuales está el muy comentado potencial de amplias pérdidas de puestos de trabajo en algunos sectores debido a la automatización del puesto de trabajo guiada por la IA. También hay efectos de segundo orden, como la atrofia de las capacidades (por ejemplo, las habilidades de diagnóstico de los profesionales médicos) a medida que crezca la importancia de los sistemas de IA. Estas consecuencias seguirán recibiendo atención a medida que crezca su importancia percibida, pero están fuera del alcance de este artículo.

Comprender los riesgos y sus palancas

Cuando algo va mal con la IA, y la causa raíz del problema sale a la luz, suele haber muchas sacudidas de cabeza. A toro pasado parece inimaginable que nadie lo viese venir. Pero si encuestas a ejecutivos bien posicionados sobre el próximo riesgo de la IA que es probable que aparezca, es muy poco probable que obtengas algún tipo de consenso.

Los líderes que tienen la esperanza de cambiar su postura desde la retrospectiva hacia la prospectiva tendrán que entender mejor los tipos de riesgos que están asumiendo, sus interdependencias y sus causas subyacentes. Para ayudar a constuir esa intuición que falta, describimos más abajo cinco puntos de dolor que pueden dar entrada a riesgos de la IA. Los tres primeros -dificultades de datos, problemas tecnológicos y fallos de seguridad- están relacionados con lo que podrían llamarse habilitadores de la IA. Los dos últimos están enlazados con los algoritmos y las interacciones humano-máquina que son centrales al funcionamiento de la propia IA. Claramente, estamos todavía en los primeros días de la comprensión de qué hay detrás de los riesgos que estamos asumiendo, cuya naturaleza y alcance también hemos catalogado en el Diagrama 1.

Diagrama 1

Consecuencias indeseadas de la IA (traducido a partir de McKinsey)

Dificultades de datos. Ingerir, clasificar, enlazar y utilizar apropiadamente los datos se ha vuelto cada vez más difícil a medida que la cantidad de datos no estructurados que se ingieren desde orígenes como la web, las redes sociales, los dispositivos móviles, los sensores y el Internet de las cosas ha aumentado. Como consecuencia, es fácil ser presa de tropiezos como usar o revelar de forma inadvertida información sensible oculta entre datos anonimizados. Por ejemplo, mientras el nombre de un paciente puede estar censurado en un registro medico que utilizar un sistema de IA, podría estar presente en la sección de notas del doctor de dicho registro. Es importante que los líderes sean conscientes de estas consideraciones cuando trabajan para cumplir las reglas de privacidad, como la regulación general de protección de datos de la Unión Europea (GDPR por sus siglas en inglés) o la ley de intimidad de los consumidores de California (CCPA), y de otro modo gestionar el riesgo para su reputación.

Problemas tecnológicos. Los problemas de tecnología y procesamiento en todo el panorama operativo pueden impactar negativamente sobre el rendimiento de los sistemas de IA. Por ejemplo, una gran institución financiera tuvo graves problemas después de que su sistema de cumplimiento normativo fallase al identificar problemas de transacciones porque los historiales de datos dejaron de incluir todas las transacciones de los clientes.

Enganches de seguridad. Otro problema emergente es el potencial de que los defraudadores saquen partido de datos aparentemente poco sensibles de marketing, salud y financieros que las empresas recopilan como combustible de sus sistemas de IA. Si las precauciones de seguridad son insuficientes, es posible tejer esos hilos para crear falsas identidades. Aunque las empresas objetivo (que desde los demás puntos de vista pueden ser altamente efectivas en la salvaguarda de la información personal identificable) sean cómplices sin saberlo, podrían sufrir el rechazo de los consumidores y repercusiones normativas.

Mal comportamiento de los modelos. Los modelos de IA en sí mismos pueden crear problemas cuando ofrecen resultados sesgados (lo que puede ocurrir, por ejemplo, si un sector de la población está poco representado en los datos utilizados para entrenar al modelo), se vuelven inestables o arrojan conclusiones para las que no hay posibilidad de réplica por los afectados por sus decisiones (como alguien a quien se le deniega un préstamo sin que sepan lo que podrían hacer para revertir la decisión). Pensemos, por ejemplo, en el potencial de que los modelos de IA discriminen de forma involuntaria contra clases en riesgo de exclusión y otros grupos al cruzar el código postal y los datos de ingresos para crear ofertas segmentadas. Son más difíciles de detectar los casos en que los modelos se cuelan como ofertas de software como un servicio (SaaS). Cuando los proveedores las presentan, las características inteligentes -a menudo con poco bombo y platillo- también están introduciendo modelos que podrían interactuar con datos en el sistema del usuario y crear riesgos inesperados, incluidos los que saquen a la luz vulnerabilidades ocultas que los hackers podrían explotar. La implicación es que los líderes que crean que están fuera de peligro si no han adquirido sistemas de IA previamente construidos o que sólo están experimentando con su desarrollo, podrían estar en un error.

Problemas de interacción. La interfaz entre las personas y las máquinas es otra zona de riesgo clave. Entre los más visibles están los retos del transporte, la fabricación y los sistemas de infraestructuras automatizados. Los accidentes y las lesiones son posibilidades si los operadores de maquinaria pesada, vehículos u otra maquinaria no reconocen cuándo los pilotos automáticos de los sistemas deberían desactivarse o tardan mucho en desactivarse porque la atención del operador están en otra parte -una posibilidad nítida en aplicaciones como las de los coches autónomos. Y al contrario, el juicio humano puede resultar erróneo al desestimar los resultados del sistema. Entre bambalinas, en la organización de la analítica de datos, errores de programación, lapsus en la gestión de datos y errores de apreciación en los datos de entrenamiento de los modelos pueden comprometer fácilmente la equidad, intimidad, seguridad y cumplimiento regulatorio. El personal de primera línea puede además contribuir involuntariamente, como cuando una fuerza de ventas más proclive a vender a ciertos segmentos de la población entrena de forma inadvertida una herramienta de ventas conducida por la IA a excluir a ciertos segmentos de la clientela. Y estas son sólo las consecuencias involuntarias. Sin salvaguardas rigurosas, empleados despechados o enemigos externos pueden llegar a corromper los algoritmos o usar una aplicación de IA de forma perniciosa.

Gestión de riesgos de la IA: Tres principios básicos

Además de proporcionar pistas sobre los desafíos que se avecinan, los ejemplos y la categorización mostrados arriba son útiles para identificar y priorizar los riesgos y sus causas raíz. Si comprender dónde los riesgos pueden estar latentes, mal comprendidos o simplemente no identificados, tienes más posibilidades de atraparlos antes de que ellos te atrapen a ti.

Pero necesitarás un esfuerzo concentrado, a escala empresarial, para avanzar desde catalogar riesgos hasta erradicarlos. Las experiencias de dos bancos líderes ayudan a ilustrar la claridad, amplitud y rigor matizado que se requieren. El primero, un actor Europeo, ha estado trabajando para aplicar capacidades de analítica avanzada e IA para optimizar su centro de atención telefónica, la toma de decisiones acerca de las hipotecas, la gestión de relaciones y las iniciativas de gestión de tesorería. El segundo es un lider global, que busca aplicar un modelo de aprendizaje automático a sus decisiones de crédito a los clientes.

Estos bancos, como muchos otros en el sector de los servicios financieros, han estado aplicando alguna forma de analítica avanzada durante cierto número de años, desde su uso temprano en la detección de fraude con tarjeta de crédito y comercio de acciones. También están sujetos a un alto grado de supervisión regulatoria y por ello han estado aplicando y haciendo transparente un amplio rango de protocolos y controles para mitigar los riesgos relacionados -incluyendo el de ciberseguridad, donde están frecuentemente en primera línea de fuego dado el obvio atractivo de sus activos para los atacantes.

Sin embargo, estas historias de bancos sólo ilustran un subconjunto de los controles específicos contra riesgos que las organizaciones deberían estar considerando. El Diagrama 2 presenta una lista más completa de posibles controles, cubriendo todo el proceso de analítica, desde la planificación al desarrollo, el uso subsiguiente y la monitorización. Nuestra esperanza es que tomada en su conjunto, la herramienta y los ejemplos ayudarán a los líderes que deben afrontar un amplio rango de problemas -evitar el sesgo en motores de recomendación, eliminar el riesgo de identidades personales, adaptar mejor las respuestas de los bots de atención al cliente a las necesidades de clientes concretos, y muchos más.

Diagrama 2

Claridad: Usa un planteamiento estructurado de identificación para precisar los riesgos más críticos.

El COO de un banco europeo empezó reuniendo líderes del negocio, TI, seguridad y gestión de riesgos para evaluar y asignar prioridades a sus mayores riesgos. Las entradas para este ejercicio incluían una mirada nítida a los riesgos existentes de la empresa y cómo podrían exacerbarse por los esfuerzos de analítica guiada por IA considerados, y a los nuevos riesgos que los facilitadores de la IA, o la propia IA, podrían crear. Algunos eran evidentes, pero otros lo eran menos. Uno que se acercó a la cima de la lista de forma inesperada fue la entrega de recomendaciones pobres o sesgadas de productos a los consumidores. Tales recomendaciones defectuosas podrían desembocar en un aumento significativo de los daños y perjuicios, incluyendo la pérdida de clientes, devaluación de la reputación y multas por incumplimientos.

Lo que los líderes del banco lograron con este proceso estructurado de identificación de riesgos fue una gran claridad sobre los escenarios más preocupantes, lo que les permitió asignar prioridades a los riesgos identificados, reconocer los controles que faltaban y a asignar tiempo y recursos en consecuencia. Esos escenarios y riesgos priotarios variarán en cada sector, como es natural, y en cada empresa. Un manufacturero alimentario podría dar prioridad a los escenarios de productos contaminados. Un desarrollador de software podría estar especialmente preocupado por la revelación del código fuente del software. Una organización de cuidados sanitarios podría centrarse en problemas como errores de diagnóstico de los pacientes o causar daños de forma inadvertida a los pacientes. Poner a un equipo transversal gerentes a identificar y desmenuzar escenarios problemáticos es un buen modo de estimular la energía creativa y de reducir el riesgo de que personal muy especializado o estrecho de miras pasen por alto vulnerabilidades relevantes. Las organizaciones no tienen porqué empezar de cero con este esfuerzo: En los últimos pocos años, la identificación de riesgos se han convertido en una disciplina bien desarrollado, y puede desplegarse de forma directa en el contexto de la IA. 

Transversalidad: Establecer controles robustos a lo largo y ancho de la empresa

Afilar tu pensamiento sobre riesgos que podrían detener el espectáculo es sólo un comienzo. También es crucial la aplicación de controles que abarquen toda la empresa para guiar el desarrollo y el uso de sistemas de IA, asegurar una supervisión correcta, y establecer políticas, procedimientos, formación del personal y planes de contingencia robustos. Sin esfuerzos con una amplia base, aumentan las probabilidades de que los factores de riesgo como los descritos previamente se abran paso por las brechas.

Preocupados por el riesgo potencial procedente de recomendaciones erróneas o sesgadas, el banco europeo comenzó a adoptar un conjunto robusto de principios de negocio orientados a detallar cómo y dónde las máquinas pueden utilizarse para tomar decisiones que afectan a la salud financiera de un cliente. Los gestores identificaros situaciones donde un ser humano (por ejemplo, un gestor comercial o un responsable de préstamos) necesitan estar «en el bucle» antes de que se entregue una recomendación al cliente. Estos trabajadores proporcionarían una red de seguridad para identificar si un cliente tiene circunstancias especiales, como el fallecimiento de un miembro de la familia o dificultades financieras, que harían que una recomendación fuese inoportuna o inapropiada.

El comité de supervisión del banco también realizó un análisis de brechas, identificando las áreas en que el marco de trabajo de gestión de riesgos del banco necesitaban una profundización, una redefinición o una extensión. Una gobernanza exhaustiva y consistente en el banco asegura actualmente la definición adecuada de las políticas y procedimientos, controles específicos para los modelos de IA, principios fundamentales (apoyados en herramientas) para guiar el desarrollo de modelos, una segregación de cometidos, y una supervisión adecuada. Por ejemplo, las herramientas de desarrollo de modelos aseguran que los científicos de datos registran de forma consistente el código de los modelos, los datos de entrenamiento y los parámetros seleccionados a lo largo del ciclo de vida del desarrollo. También se adoptaron librerías estándar para facilitar la explicabilidad, informar del desempeño de los modelos y monitorizar los datos y modelos en productivo. Este marco de gobierno está demostrando un valor incalculable tanto para los esfuerzos internos de desarrollo de IA como para evaluar y monitorizar herramientas de IA de terceros como un modelo SaaS que el banco había contratado.

Además, las políticas del banco requieren ahora que todos los grupos de interés, incluyendo a los ejecutivos de negocios patrocinadores, que desarrollen una planificación de escenarios y un plan de restablecimiento para el caso en que un modelo de IA vaya a la deriva, que los datos de entrada tengan un salto inesperado, o que ocurran cambios repentinos como un desastre natural en el entorno exterior. Estos planes de restablecimiento se incluyen en el proceso regular de revisión de riesgos, dando al comité de riesgos visibilidad sobre los pasos que se están tomando para mitigar los riesgos guiados por la analítica o relacionados con la IA.

La formación y concienciación del personal son también actuaciones destacadas en el plan de mitigación de riesgos del banco. Todos los empleados afectados reciben comunicaciones detalladas sobre dónde se está usando la IA; qué pasos está dando el banco para asegurar decisiones justas y precisas y para proteger los datos de los clientes; y cómo el modelo de gobierno del banco, la tecnología automatizada y las herramientas de desarrollo funcionan de forma coordinada. Además, los patrocinadores de negocio, los equipos de riesgos y el personal de analítica reciben una formación específica acerca de su rol en identificar y minimizar riesgos. Por ejemplo, los patrocinadores de negocio están aprendiendo a pedir explicaciones sobre el comportamiento d elos modelos, los cuales están usando para realimentar el proceso acerca de las suposiciones de negocio que hay detrás del modelo. Mientras tanto, el equipo de riesgos se ha entrenado sobre cómo identificar y mitigar mejor los problemas legales y de cumplimiento normativo, como la posible discriminación contra grupos protegidos o el cumplimiento de la GDPR.

La monitorización de la analítica guiada por IA es un esfuerzo continuado, más que una actividad que se ejecute y se pueda dar por concluida.. Como tal, los grupos de supervisión del banco, incluidos los comités de riesgos de la directiva, revisan con regularidad el programa para estar al corriente de nuevos riesgos que puedan haber emergido como consecuencia de cambios regulatorios, rupturas en el sector, interpretaciones legales (como el ejemplo de la emergente ley GDPR), evolución en las expectativas de los clientes y la los rápidos cambios tecnológicos.

Matiz: Refuerza los controles específicos dependiendo de la naturaleza del riesgos.

Por importantes que sean los controles transversales en la empresa, rara vez serán suficientes para contrarrestar cada posible riesgos. Otro nivel de rigor y matiz suele ser necesario, y los controles requeridos dependerán de factores como la complejidad de los algoritmos, sus requisitos de datos, la naturaleza de la interacción humano-máquina (o máquina-máquina), el potencial de explotación por agentes malintencionados y el grado de implantación de la IA en un proceso de negocio. Los controles conceptuales, comenzando por un diagrama de casos de uso, pueden ser necesarios en ocasiones. También lo serán los controles específicos de datos y analítica, incluidos los requisitos de transparencia, así como los controles para la realimentación y monitorización, como los análisis de rendimiento para detectar su deterioro o su sesgo.

Nuestro seegundo ejemplo arroja una  valiosa luz sobre los controles matizados. Esta institución quería visualizar cómo exactamente un modelo de aprendizaje automático estaba tomando decisiones para un proceso concreto orientado al cliente. Después de sopesar cuidadosamente los requisitos de transparencia, la institución decidió mitigar el riesgo limitando los tipos de algoritmos de aprendizaje automático que utilizaba. Deshabilitar ciertas formas del modelo que eran excesivamente complejas y opacas permitió a la institución alcanzar un cómodo equilibrio. Se había perdido algo de potencia predictiva, lo que conllevaba costes económicos. Pero la transparencia de los modelos que se utilizaron dio a la plantilla más confianza en las decisiones que tomaban. Los modelos más sencillos también hacen que sea más sencillo comprobar que tanto los datos como los modelos no presenten sesgos que podrían surgir a partir del comportamiento de los usuarios o cambios en las variables de datos o sus ponderaciones.

Como sugiere este ejemplo, las organizaciones necesitarán una mezcla de controles específicos de cada riesgo y les conviene implementarlos creando protocolos que seguran que estén desplegados y supervisados a lo largo de todo el proceso de desarrollo de IA. Las instituciones de nuestros ejemplos implantaron esos protocolos, así como protocolos transversales a toda la organización, al menos en parte, a través de su infraestructura de riesgos existente. Las empresas que carecen de una organización centralizada de riesgos aún pueden poner en funcionamiento estas técnicas de gestión del riesgo de la IA utilizando procesos robustos de gestión de riesgos.

Aún queda muco que aprender sobre los riesgos potenciales que las organizaciones, individuos y la sociedad afrontan en lo que se refiere a la IA; sobre el equilibrio adecuado entre la innovación y el riesgo y sobre el despliegue de mecanismos de control para gestionar lo inimaginable. Hasta el momento, la reacción de la opinión pública y la normativa han sido relativamente moderadas.

Pero es probable que esto cambie si hay más organizaciones que tropiecen. A medida que crezcan los costes de los riesgos asociados a la IA, la capacidad de tanto evaluar esos riesgos como de comprometer a los trabajadores de todos los niveles en definir e implantar controles se convertirán en una nueva fuente de ventaja competitiva. En el horizonte, para muchas organizaciones, está una re-conceptualización de la «experiencia del cliente» para atender tanto la promesa como las trampas de los resultados de la IA. Otro imperativo es del de comprometerse en un debate serio sobre la ética de aplicar la IA y dónde trazar líneas que limiten su uso. La acción colectiva, que podría involucrar un debate a nivel sectorial sobre la autorregulación y el compromiso con los legisladores tiene también visos de ganar importancia. Las organizaciones que cultiven esas capacidades estarán mejor posicionadas para prestar servicios con efectividad a sus clientes y a la sociedad, para evitar problemas éticos, de negocio, de reputación y regulatorios, y para prevenir una potencial crisis existencial que podría poner de rodillas a la organización.

Sobre los autores

Benjamin Cheatham es un socio senior de la oficina de McKinsey en Philadelphia y dirige QuantumBlack, una empresa McKinsey, en Norteamérica. Kia Javanmardian es socio senior en la oficina de Washington, DC y Hamid Samandari es un socio senior partner en la oficina de Nueva York.

Los autores quieren agradecer a Roger Burkhardt, Liz Grennan, Nicolaus Henke, Pankaj Kumar, Marie-Claude Nadeau, Derek Waldron y Olivia White sus contribuciones a este artículo.

Anuncio publicitario

También puede haber buenas noticias

Y no son necesariamente tiernos videos de animales o actos aleatorios de amabilidad, como explica este post del blog de Google Assistant. Se trata de una funcionalidad de su asistente que está en pruebas en los EE.UU. y que consiste en pedirle que te cuente algo bueno. Te muestra entonces noticias cultivadas y recopiladas por Solutions Journalism Network que cuentan cómo es posible resolver problemas concretos con un impacto positivo y significativo, como reducir la brecha educativa racial en la Universidad estatal de Georgia combinando datos y empatía (¡vaya cóctel!), la recuperación de la economía y del hábitat de las abejas por los apicultores aficionados del Este de Detroit o cómo Islandia ha reducido la tasa de alcoholismo entre los adolescentes con toques de queda y cupones para actividades extraescolares.

¿Puede ser el principio de una dieta de medios equilibrada? Vendría bien, para descansar de la habitual ración de pretextos para estar enfadado, bulos para seguir alimentando el sesgo de confirmación de nuestros prejuicios y excusas derrotistas para seguir inmóviles. Prefiero un poquito de inspiración para mejorar las cosas poco a poco, cada día, en la medida de mis posibilidades.

El caso de la reinvención digital, por McKinsey

Este artículo de Jacques Bughin, Laura LaBerge y Anette Mellbye publicado en la edición de febrero de 2017 de McKinsey quarterly trata de lo mucho que le queda por hacer a la industria en materia de transformación digital y la mejor forma de enfrentarse a la presión que la digitalización impondrá sobre los ingresos y los beneficios.

El caso de la reinvención digital

La tecnología digital, a pesar de su aparente omnipresencia, sólo ha empezado a penetrar en las industrias. A medida que continúa su avance, las implicaciones para los ingresos, beneficios y oportunidades serán extraordinarias.

A medida que emergen nuevos mercados, los nichos de beneficio cambian y las tecnologías digitales ganan terreno en la vida cotidiana, es fácil suponer que la digitalización de la economía está ya muy avanzada. De acuerdo con nuestra más reciente investigación, sin embargo, las fuerzas digitales todavía tienen que convertirse en la corriente principal. En promedio, las industrias están digitalizadas menos de un 40%, a pesar de la relativamente profunda penetración de estas tecnologías en medios, minoristas y alta tecnología.

A medida que la digitalización penetra más completamente, estropeará los ingresos y el crecimiento de algunos, especialmente, el cuartil inferior de las empresas, según nuestra investigación, mientras que el cuartil superior captura ganancias desproporcionadas. Las estrategias digitales audaces, estrechamente integradas serán el mayor factor diferencial entre las empresas que ganen y las que no, y las mayores retribuciones irán a los que inicien las rupturas digitales. Los seguidores rápidos con excelencia operacional y una excelente salud organizativa no les seguirán de muy lejos.

Continue reading →

Nunca (jamás) te bajes apps de Android Apps fuera de Google Play

Un artículo de WIRED sobre seguridad nos recuerda otras de las muchas maneras que tenemos de pifiarla y hacernos daño (o exponernos a que nos lo hagan) si no seguimos unas elementales normas de prudencia. Aún así, aunque tomemos todas las precauciones somos vulnerables. Por lo menos no se lo facilitemos.

Nunca (jamás) descargues apps fuera de Google Play

Esta semana, unos investigadores revelaron que una oleada de malware golpeó a al menos 1.3 millones de teléfonos Android, robando datos de usuarios como parte de una maquinación para potenciar los ingresos por publicidad. Llamada «Gooligan», se coló en esos dispositivos de la forma en que muchos de esos ataques a gran escala en Android lo hacen: a través de una app. Concretamente, una app que la gente se descargó fuera de los confortables confines de la Google Play Store.

El fin de las teorías: El Diluvio de Datos hace obsoleto al método científico

Me encanta el tono grandilocuente de este artículo de Chris Anderson en wired (2008!). Lo traduzco seguidamente.

El fin de las teorías: El Diluvio de Datos hace obsoleto al método científico

«Todos los modelos son erróneos, pero algunos son útiles».

Eso proclamaba el estadístico George Box hace 30 años, y tenía razón. ¿Pero teníamos otra elección? Sólo los modelos, desde las ecuaciones cosmológicas hasta las teorías sobre el comportamiento humano, parecían capaces de explicar, con coherencia aunque imperfectamente, explicar el mundo que está a nuestro alrededor. Hasta ahora. Empresas como Google, que han crecido en una era de datos inmensamente abundantes, no tienen que conformarse con modelos erróneos. Es más, no tienen por qué conformarse con modelos en absoluto.

Hace sesenta años, los ordenadores digitales hicieron la información legible. Veinte años más tarde, Internet la hizo accesible. Hace diez años, los primeros motores de búsqueda lo convirtieron en una única base de datos.

Ahora Google y empresas de parecido pensamiento están escudriñando la edad más medida de la historia, tratando ese inmenso corpus como un laboratorio de la condición humana. Son los niños de la Era del Petabyte.

peta8

La Era del Petabyte es diferente por que más es diferente. Los kilobytes se almacenaban en discos flexibles. Los megabytes se almacenaban en discos duros. Los terabytes se almacenaban en matrices de discos. Los petabytes se almacenan en la nube. A medida que recorrimos esa progresión, fuimos desde la analogía de la carpeta a la analogía del archivador y a la analogía de la biblioteca a -bueno, en los petabytes nos hemos quedado sin analogías organizativas.

En la escala del petabyte, la información no es sólo cuestión de orden y taxonomías tri -y tetra- dimensionales, sino de estadísticas dimensionalmente agnósticas. Esto exige un enfoque totalmente distinto, uno que requiere que perdamos la atadura de los datos como algo que puede visualizarse en su totalidad. Nos fuerza a ver los datos matemáticamente primero y establecer un contexto para ellos después.

Por ejemplo, Google conquistó el mundo de la publicidad con nada más que matemáticas aplicadas. No fingía saber nada de la cultura y las convenciones de la publicidad -solo supuso que mejores datos, con mejores herramientas analíticas, asegurarían el éxito. Y Google tenía razón.

La filosofía fundamental de Google es que no sabemos por qué esta página es mejor que aquella: si las estadísticas de enlaces entrantes dicen que lo es, con eso basta. No hace falta ningún análisis causal ni semántico. Por eso Google puede traducir idiomas sin realmente «hablarlos» (a igualdad de cuerpos de datos, Google puede traducir del klingon al farsi tan fácilmente -y con tantos errores, dirán mis amigos traductores- como del francés al alemán). Y por eso puede emparejar anuncios con contenidos sin ningún conocimiento ni hipótesis sobre los anuncios o el contenido.
Durante su intervención en la Conferencia de tecnologías emergentes de O’Reilly el pasado marzo, Peter Norvig, el director de investigación de Google ofreció una actualización de la máxima de George Box: «Todos los modelos son erróneos, y cada vez más puedes acertar sin ellos».

Este es un mundo donde enormes cantidades de datos y las matemáticas aplicadas sustituyen a todas las demás herramientas que podrían usarse. Fuera todas las teorías sobre el comportamiento humano, desde la lingüística a la sociología. Olvida la taxonomía, la ontología y la psicología. ¿Quién sabe por qué la gente hace lo que hace? El caso es que lo hacen, y podemos monitorizarlo y medirlo con una fidelidad sin precedentes. Con datos suficientes, los números hablan por sí mismos.

El gran objetivo de esto no es la publicidad. Es la ciencia. El método científico está construido sobre hipótesis verificables. Estos modelos, en su mayoría, son sistemas visualizados en la mente de los científicos. Los modelos se comprueba, y los experimentos confirman o desmienten los modelos teóricos sobre cómo funciona el mundo. Así ha funcionado la ciencia durante cientos de años.

Los científicos están entrenados para reconocer que la correlación no implica causa, que no se deberían extraer conclusiones simplemente sobre la base de la correlación entre X e Y (podría ser sólo una coincidencia). En lugar de eso, debes comprender los mecanismos subyacentes que conectan a los dos. Una vez  que tienes un modelo, puedes conectar los conjuntos de datos con toda confianza. Los datos sin un modelo son sólo ruido.

Pero al enfrentarse a enormes conjuntos de datos, este acercamiento a la ciencia -hipótesis, modelo, prueba – se está volviendo anticuado. Pensemos en la física. Los modelos newtonianos eran crudas aproximaciones a la verdad (erróneos a nivel atómico, pero aún así útiles).

newton2bfin2bde2blos2btiempos

Cien años más tarde, la mecánica cuántica basada en estadísticas ofreció una mejor imagen – pero la mecánica cuántica es otro modelo más, y como tal, también defectuoso, sin duda una caricatura de una realidad subyacente más compleja. La razón por la que la física ha derivado en especulaciones teóricas sobre grandiosos modelos unificados n-dimensionales durante las últimas décadas (la fase «bonita historia» de una disciplina hambrienta de datos) es que no sabemos cómo realizar los experimentos que podrían desmentir las hipótesis – las energías son excesivas, los aceleradores demasiado caros y así sucesivamente.

Ahora la biología se está orientando en la misma dirección. Los modelos que nos enseñaban en la escuela sobre genes «dominantes» y «recesivos» conduciendo un proceso estrictamente mendeliano han resultado ser una simplificación de la realidad aún mayor que las leyes de Newton. El descubrimiento de interacciones entre genes y proteínas y otros aspectos de la epigenética han desafiado la visión del ADN como una predestinación y han incluso presentado evidencias de que el ambiente puede influir en los rasgos hereditarios, algo considerado en el pasado como una imposibilidad genética. En resumen, cuanto más aprendemos sobre biología, más lejos nos encontramos de un modelo que la pueda explicar.

245px-gregor_mendel_2

Ahora hay un camino mejor. Los Petabytes nos permiten decir: «Con la correlación basta». Podemos dejar de buscar modelos. Podemos analizar los datos sin hipótesis sobre lo que podrían mostrar. Podemos lanzar los números a los mayores superordenadores que el mundo haya visto jamás y dejar que los algoritmos estadísticos busquen los patrones que la ciencia no puede encontrar.

El mejor ejemplo práctico de esto es la ametralladora de secuencia genes ideada por J.Craig Venter. Capacitado por secuenciadores de alta velocidad y superordenadores que analizan estadísticamente los datos que producen, Venter paso de secuenciar organismos individuales a secuenciar ecosistemas enteros. En 2003, empezó a secuenciar gran parte del océano, siguiendo los pasos del viaje del capitán Cook. Y en 2005 empezó a secuenciar el aire. En el proceso, descubrió miles de especies antes desconocidas de bacterias y otras formas de vida.

Si las palabras «descubrir una nueva especie» te hacen pensar en Darwin y en dibujos de pinzones, puede que estés atascado en la antigua forma de hacer ciencia. Venter apenas puede decirte nada sobre las especies que ha encontrado. No sabe qués aspecto tienen, cómo viven o casi nada más sobre su morfología. Ni siquiera tiene su genoma entero. Todo lo que tiene es una anomalía estadística – una secuencia única que, al ser diferente de cualquier otra secuencia en la base de datos, debe representar una nueva especie.

Esta secuencia puede correlar con otras secuencias que se parecen a las de especies sobre las que sabemos algo más. En ese caso, Venter hace algunas suposiciones sobre los animales – que convierten el sol en energía de una manera particular, o que descienden de un antepasado común. Pero aparte de eso, no tienen un modelo mejor de estas especies que el que Google tenga de tu página de MySpace. Sólo son datos. Analizándolos con los poderosos recursos de computación de Google, sin embargo, Venter ha avanzado la biología más que ningún otro en su generación.

Esta forma de pensar está a punto de convertirse en lo normal.En febrero, la National Science Foundation anunció el Cluster Exploratory, un programa que financia la investigación diseñada para ejecutarse sobre una plataforma distribuida de computación a gran escala desarrollada por Google e IBM en equipo con seis universidades piloto. El racimo (cluster) consistirá en 1600 procesadores varios terabytes de memoria, y cientos de terabytes de almacenamiento, junto con el software, incluyendo el Tivoli de IBM y versiones de código abierto de Google File System y MapReduce.

Los primeros proyectos de CluE incluirán simulaciones del cerebro y el sistema nervioso y otras investigaciones biológicas que están en algún sitio entre el wetware y el software.

Aprender a usar un «ordenador» de estas dimensiones puede ser un reto. Pero la oportunidad es excelente: La nueva disponibilidad de enormes cantidades de datos, junto con las herramientas estadísticas para estrujar estos números, ofrece una forma enteramente nueva de comprender el mundo. La correlación supera a la causalidad, y la ciencia puede avanzar incluso sin modelos coherentes, teorías unificadas o en realidad sin ni siquiera ninguna explicación mecanicista.

No hay ninguna razón para aferrarnos a nuestra antigua forma de hacer las cosas. Es la hora de preguntarse: ¿Qué puede aprender la ciencia de Google?

Smart Fiets optimiza el parque de bicicletas de Amsterdam

Os enlazo aquí un artículo de Guille Mas sobre otro logro de City Makers, Smart Fiets. Han aparecido en un periódico de tirada nacional con esta iniciativa innovadora para optimizar la gestión del parque de bicicletas de Amsterdam, que algunas bicicletas tiene, así como una vocación de anular sus emisiones de gases de efecto invernadero (GEI) a la atmósfera en 2025. No es una pica en Flandes, pero poco le falta. Enhorabuena!

Twitter según Berto Romero

Ayer estuve viendo un vídeo Late Motiv, y en su consultorio Berto Romero hizo una definición / metáfora de Twitter que me hizo carcajearme un buen rato:

Un libro de conjuros de la búsqueda con Google

Los australianos de la compañía  de SEO supple han publicado una sencilla y potente hoja de trucos para refinar consultas en este link.

Aparte del clásico de poner el texto literal que quieres encontrar entre comillas, o el operador site: para limitar los resultados a una determinada página web, hay toda una gama de modificadores que permiten especializar tus búsquedas hasta lo indecible.

Si unes esto a tus Google alerts, por ejemplo, te puedes llevar a tu correo informes diarios sobre tu marca, la de la competencia, sobre tu especialidad o las aficiones de tu pareja o tus hijos. Puedes hacer limpieza de los links rotos de tu página web o enterarte de los que se ha publicado en los últimos 3 días sobre tu película preferida.

City Makers en Startup Europe Week Alicante – Guillermo Mas

Guille Mas nos cuenta en su blog su participación en la semana de las startups celebrada en Alicante.

¿Hasta qué punto puede el criterio pedagógico de un colegio imponerse sobre la voluntad de unos padres?

Ayer me comentaron esta petición de un querido compañero de estudios ha hecho en change.org. Luis y su mujer son padres de mellizos y en su colegio de educación infantil se empeñan en escolarizarlos  en aulas diferentes. Yo he votado para apoyarles. Después de leer una impecable argumentación como esa, hasta el director del centro debería.